当前位置: 首页 > news >正文

1.8k Star!RAGApp:在任何企业中使用 Agentic RAG 的最简单方法!

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
原文链接:(更好排版、视频播放、社群交流、最新AI开源项目、AI工具分享都在这个公众号!)

1.8k Star!RAGApp:在任何企业中使用 Agentic RAG 的最简单方法!

🌟在任何企业中使用 Agentic(代理的) RAG 的最简单方法!配置起来与OpenAI 的自定义GPTs一样简单。

嘿,欢迎来到Aitrainee的频道。今天我要给大家介绍一个非常酷的新应用——RAGApp。

** RAGApp ** ,顾名思义,就是一个开源的 RAG 应用程序,可以让你和 PDF、DOC、电子表格等文档聊天。你可以用它来创建各种 RAG
代理,比如财务代理、股票代理、编码代理、一般聊天代理等等。使用它就像 ChatGPT 一样简单,几秒钟就能上手,而且它比 ChatGPT 更强大。
RAGApp 兼容多种平台,包括 Ollama(适用于本地模型) 、OpenAI、Groq、HuggingFace、Gemini
等等。你还可以用它连接 GPT-4O、Gemini 1.5 Pro 和 Gemini 1.5 Flash,以及 Mistral AI 的 Mixtral
8x22b、LLaMa、Gemini 和 OpenAI API。

配置起来与OpenAI 的自定义GPTs一样简单,但可以使用 Docker 在你自己的云基础架构中部署。使用LlamaIndex( LLM
应用程序的数据框架 开源项目 )构建。

▲ 配置起来与OpenAI 的自定义 GPT一样简单

教程&演示视频: 人工智能自动完成代码以免费创建软件!

油管博主: AlCodeKing / 字幕译:Aitrainee, 接在 这里

https://www.youtube.com/watch?v=V2tQVzyQiiY

开始使用

要运行 RAGapp,请使用镜像启动一个 Docker 容器:

docker run -p 8000:8000 ragapp/ragapp

启动容器后,在浏览器中访问 http://localhost:8000/admin 来配置 RAGapp。可以选择使用 OpenAI 或 Gemini
的托管 AI 模型,或者使用 Ollama 的本地模型。

端点

Docker 容器暴露以下端点:

  • 管理 UI: http://localhost:8000/admin

  • 聊天 UI: http://localhost:8000

  • API 文档: http://localhost:8000/docs

注意 : 聊天 UI 和 API 仅在 RAGapp 配置完成后才可用。

为了确保 RAGapp 的安全,建议在云环境中保护 /admin 路径,因为 RAGapp 本身不包含任何认证层。

部署

使用 Docker Compose

提供了一个 docker-compose.yml 文件,使得在自己的基础设施中轻松部署 RAGapp,并与 Ollama 和 Qdrant
一起使用。

可以通过 MODEL 环境变量指定要使用的模型,例如 llama3

MODEL=llama3 docker-compose up

如果未指定 MODEL 变量,将默认使用模型 phi3 ,该模型比 llama3 略弱,但下载速度更快。

注意 : docker-compose.yml 文件中的 setup 容器将把选定的模型下载到 ollama
文件夹中,这个过程可能需要几分钟。

还可以通过 OLLAMA_BASE_URL 环境变量指定要使用的 Ollama 主机。如果未指定 OLLAMA_BASE_URL
变量,默认指向 Docker Compose 启动的 Ollama 实例 ( http://ollama:11434 )。

如果使用的是本地 Ollama 实例,可以通过将 OLLAMA_BASE_URL 变量设置为 http://host.docker.internal:11434 来连接到 RAGapp:

MODEL=llama3 OLLAMA_BASE_URL=http://host.docker.internal:11434 docker-compose up

对于 macOS 用户,这是必要的,因为 Docker for Mac 不支持 GPU 加速。

Kubernetes

可以轻松地在自己的云基础设施中部署 RAGapp。定制的 Kubernetes 部署描述符即将推出,敬请期待。

开发

要进行开发,请按照以下步骤操作:

poetry install --no-root  
make build-frontends  
make dev

注意 : 在开发过程中查看管理 UI,请访问 http://localhost:3000/admin。

Github:https://github.com/ragapp/ragapp/

知音难求,自我修炼亦艰

抓住前沿技术的机遇,与我们一起成为创新的超级个体

(把握AIGC时代的个人力量)

**
**

** 点这里 👇 关注我,记得标星哦~ **

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

预览时标签不可点

微信扫一扫
关注该公众号

轻触阅读原文

AI进修生



收藏

相关文章:

  • ADB日常使用命令
  • 大国之间的互联网博弈:新时代的战略竞争
  • vue-table的使用,解决懒加载展开列,数据量过大,造成的卡顿问题
  • 12 FreeRTOS 调试与优化
  • Flutter 中的 SliverPrototypeExtentList 小部件:全面指南
  • TiDB-从0到1-分布式事务
  • 蓝桥杯2024国赛--备赛刷题题单
  • Linux--进程间通信(1)(匿名管道)
  • LabVIEW软件需求分析文档内容和编写指南
  • 2024最新群智能优化算法:大甘蔗鼠算法(Greater Cane Rat Algorithm,GCRA)求解23个函数,提供MATLAB代码
  • llama-factory微调大模型
  • 深入分析 Android Activity (六)
  • [C#]使用C#部署yolov8-seg的实例分割的tensorrt模型
  • vscode写html不会自动补全
  • 东方博宜1703 - 小明买水果
  • 【EOS】Cleos基础
  • CSS魔法堂:Absolute Positioning就这个样
  • github指令
  • go append函数以及写入
  • ReactNativeweexDeviceOne对比
  • SwizzleMethod 黑魔法
  • Yii源码解读-服务定位器(Service Locator)
  • 短视频宝贝=慢?阿里巴巴工程师这样秒开短视频
  • 七牛云 DV OV EV SSL 证书上线,限时折扣低至 6.75 折!
  • 巧用 TypeScript (一)
  • 使用Tinker来调试Laravel应用程序的数据以及使用Tinker一些总结
  • 世界上最简单的无等待算法(getAndIncrement)
  • 小而合理的前端理论:rscss和rsjs
  • 携程小程序初体验
  • 一个项目push到多个远程Git仓库
  • 小白应该如何快速入门阿里云服务器,新手使用ECS的方法 ...
  • ​【经验分享】微机原理、指令判断、判断指令是否正确判断指令是否正确​
  • ​草莓熊python turtle绘图代码(玫瑰花版)附源代码
  • # 执行时间 统计mysql_一文说尽 MySQL 优化原理
  • (2)nginx 安装、启停
  • (env: Windows,mp,1.06.2308310; lib: 3.2.4) uniapp微信小程序
  • (PySpark)RDD实验实战——取最大数出现的次数
  • (笔试题)分解质因式
  • (二)Optional
  • (二)springcloud实战之config配置中心
  • (附源码)计算机毕业设计大学生兼职系统
  • (一) 初入MySQL 【认识和部署】
  • (转)编辑寄语:因为爱心,所以美丽
  • ./和../以及/和~之间的区别
  • .chm格式文件如何阅读
  • .NET Core 中插件式开发实现
  • .net 程序 换成 java,NET程序员如何转行为J2EE之java基础上(9)
  • .NET 给NuGet包添加Readme
  • .NET 中让 Task 支持带超时的异步等待
  • .Net多线程Threading相关详解
  • .Net中的集合
  • /proc/vmstat 详解
  • @cacheable 是否缓存成功_让我们来学习学习SpringCache分布式缓存,为什么用?
  • []指针
  • [2019/05/17]解决springboot测试List接口时JSON传参异常