文章目录[x]
- 1:1.MaxKB
- 1.1:1.1 官网
- 1.2:1.2 系统架构
- 1.3:1.3 技术栈
- 1.4:1.4 关键参数
- 2:2.FastGPT
- 2.1:2.1 官网
- 2.2:2.2 系统架构
- 2.3:2.3 技术栈
- 2.4:2.4 关键参数
- 3:3.RagFlow
- 3.1:3.1 官网
- 3.2:3.2 系统架构
- 3.3:3.3 技术栈
- 3.4:3.4 关键参数
- 4:4.Dify
- 4.1:4.1 官网
- 4.2:4.2 系统架构
- 4.3:4.3 技术栈
- 4.4:4.4 关键参数
- 5:5.阿里云百炼(应用)
- 6:6.langflow
AI Agent 构建系统对比
1.MaxKB
1.1 官网
https://maxkb.cn/
1.2 系统架构


1.3 技术栈
- 前端:vue.js、LogicFlow
- 后端:Python / Django、langchain
- 向量数据库:PostgreSQL / pgvector
- 大模型:Ollama、Azure OpenAI、OpenAI、通义千问、Kimi、百度千帆、讯飞星火、Gemini、DeepSeek等。
1.4 关键参数
1.4.1 部署方式
1. 离线安装(内网环境可选)
2. 在线安装(使用docker部署)
3. 1Panel安装
4. 阿里云安装
1.4.2 发布方式
1. 使用iframe嵌入到其他网页,提供全屏和右下角
2. 提供api可供其他应用调用
3. 专业版可以嵌入第三方系统,如:企业微信、钉钉、飞书、公众号
1.4.3 知识库
1. 支持从网站自动爬取(静态页面)
2. 自定义分段规则
3. 标题自动添加到分段。
4. 预览分段

1.4.4 功能编排
构建应用可以选择简单配置和高级编排。简单配置可以快速配置一个具备RAG和Prompt的应用,高级编排可以配置更加复杂的应用。


1.4.5 硬件配置
在线安装(docker)配置要求:
- 操作系统:Ubuntu 22.04 / CentOS 7.6 64 位系统
- CPU/内存:4C/8GB 以上
- 磁盘空间:100GB
1.4.6 产品优势
- 开箱即用
支持直接上传文档 / 自动爬取在线文档,支持文本自动拆分、向量化和 RAG(检索增强生成),有效减少大模型幻觉,智能问答交互体验好;
- 快速接入
支持零编码嵌入到第三方业务系统,以及快速接入企业微信、钉钉、飞书、公众号等应用,让已有系统快速拥有智能问答能力,提高用户满意度;
- 灵活编排
内置强大的工作流引擎和函数库,支持编排 AI 工作过程,满足复杂业务场景下的需求;
- 模型中立
支持对接各种大模型,包括本地私有大模型(Llama 3 / Qwen 2 等)、国内公共大模型(通义千问 / 腾讯混元 / 字节豆包 / 百度千帆 / 智谱 AI / Kimi 等)和国外公共大模型(OpenAI / Claude / Gemini 等)。
2.FastGPT
2.1 官网
https://tryfastgpt.ai/
FastGPT提供了在线使用的服务:https://cloud.fastgpt.cn/login
2.2 系统架构

2.3 技术栈
NextJs + TS + ChakraUI + MongoDB + PostgreSQL (PG Vector 插件)/Milvus
2.4 关键参数
2.4.1 部署方式
- docker
- 源码
2.4.2 发布方式
- 免登录分享窗口
- Iframe 一键嵌入
- 聊天窗口嵌入支持自定义 Icon,默认打开,拖拽等功能
2.4.3 知识库
多库复用,混用
chunk 记录修改和删除
支持手动输入,直接分段,QA 拆分导入
支持 txt,md,html,pdf,docx,pptx,csv,xlsx (有需要更多可 PR file loader),支持 url 读取、CSV 批量导入
混合检索 & 重排
API 知识库
2.4.4 功能编排
跟maxkb一样提供两种模式,其中高级编排的功能更加丰富。


2.4.5 硬件配置
1. PgVector版本---体验测试首选
环境 最低配置(单节点) 推荐配置
测试 2c2g 2c4g
100w组向量 4c8g 50GB 4c16g 50GB
500w组向量 8c32g 200GB 16c64g 200GB
2. Milvus版本---生产部署首选,对于千万级以上向量性能更优秀。
环境 最低配置(单节点) 推荐配置
测试 2c8g 4c16g
100w组向量 未测试
500w组向量
2.4.6 产品特点
- **项目开源** FastGPT 遵循附加条件 Apache License 2.0 开源协议,你可以 Fork 之后进行二次开发和发布。FastGPT 社区版将保留核心功能,商业版仅在社区版基础上使用 API 的形式进行扩展,不影响学习使用。
- **独特的 QA 结构** 针对客服问答场景设计的 QA 结构,提高在大量数据场景中的问答准确性。
- **可视化工作流** 通过 Flow 模块展示了从问题输入到模型输出的完整流程,便于调试和设计复杂流程。
- **无限扩展** 基于 API 进行扩展,无需修改 FastGPT 源码,也可快速接入现有的程序中。
- **便于调试** 提供搜索测试、引用修改、完整对话预览等多种调试途径。
- **支持多种模型** 支持 GPT、Claude、文心一言等多种 LLM 模型,未来也将支持自定义的向量模型。
3.RagFlow
3.1 官网
https://ragflow.io/
在线使用:https://demo.ragflow.io/knowledge
3.2 系统架构

3.3 技术栈
3.4 关键参数
3.4.1 部署方式
- 源码
- docker
3.4.2 发布方式
我使用的是在线版的,没有找到发布功能,只有一个聊天的界面。
3.4.3 知识库
RAGFlow提供了更加高级的文档解析功能,例如:文件分段、OCR、页面布局分析、表格识别等。
3.4.4 功能编排
同样有两种模式,一种简单的聊天助理,一种是具有编排能力的Agent。


3.4.5 硬件配置
CPU ≥ 4 cores (x86);
RAM ≥ 16 GB;
Disk ≥ 50 GB;
Docker ≥ 24.0.0 & Docker Compose ≥ v2.26.1.
3.4.6 产品特点
1. "Quality in, quality out"
-基于深度文档理解,能够从各类复杂格式的非结构化数据中提取真知灼见。
-真正在无限上下文(token)的场景下快速完成大海捞针测试。
2. 🍱 基于模板的文本切片
-不仅仅是智能,更重要的是可控可解释。
-多种文本模板可供选择
3. 🌱 有理有据、最大程度降低幻觉(hallucination)
-文本切片过程可视化,支持手动调整。
-有理有据:答案提供关键引用的快照并支持追根溯源。
4. 🍔 兼容各类异构数据源
支持丰富的文件类型,包括 Word 文档、PPT、excel 表格、txt 文件、图片、PDF、影印件、复印件、结构化数据、网页等。
5. 🛀 全程无忧、自动化的 RAG 工作流
-全面优化的 RAG 工作流可以支持从个人应用乃至超大型企业的各类生态系统。
-大语言模型 LLM 以及向量模型均支持配置。
-基于多路召回、融合重排序。
-提供易用的 API,可以轻松集成到各类企业系统。
4.Dify
4.1 官网
https://dify.ai/
Dify是一个开源的大语言模型(LLM)应用开发平台,旨在简化和加速生成式AI应用的创建和部署。该平台结合了后端即服务(Backend as Service, BaaS)和LLMOps的理念,为开发者提供了一个用户友好的界面和一系列强大的工具,使他们能够快速搭建生产级的AI应用。
4.2 系统架构

4.3 技术栈
- 后端技术 Python/Flask/PostgreSQL
- 前端技术 Next.js
4.4 关键参数
4.4.1 部署方式
- docker compose
- 本地源码启动
- 宝塔面板部署
- 单独启动前端Docker容器
4.4.2 发布方式
1. 发布为公开的Web站点
2. 嵌入到网站
3. 基于APIs开发
4. 基于前端组件再开发
4.4.3 知识库
核心优势:
- 实时性:知识库中的数据可随时更新,确保模型获得最新的上下文。
- 精准性:通过检索相关文档,LLM 能够基于实际内容生成高质量的回答,减少幻觉现象。
- 灵活性:开发者可自定义知识库内容,根据实际需求调整知识的覆盖范围。
准备文本文件,例如:
长文本内容(TXT、Markdown、DOCX、HTML、JSON 甚至是 PDF)
结构化数据(CSV、Excel 等)
在线数据源(网页爬虫、Notion 等)
将文件上传至“知识库”即可自动完成数据处理。
4.4.4 功能编排
同样有两种模式,一种简单的聊天助理,一种是具有编排能力的Agent。


4.4.5 硬件配置
本地源码的方式最低要求:
CPU >= 2 Core
RAM >= 4 GiB
5.阿里云百炼(应用)
5.1 官网
5.2 系统架构
5.3 技术栈
5.4 关键参数
5.4.1 部署方式
5.4.2 发布方式
5.4.3 知识库
5.4.4 功能编排

5.4.5 硬件配置
6.langflow
1.1 官网
1.2 系统架构
1.3 技术栈
1.4 关键参数
1.4.1 部署方式
1.4.2 发布方式
1.4.3 知识库
1.4.4 功能编排

1.4.5 硬件配置
以上6种Agent框架各有特点
MaxKB容易部署,镜像体积小2G左右,操作相对简单适合入门;
FastGPT提供丰富的节点;
RAGFlow,文件识别比较强支持OCR,版面识别等特点;
Dify,用户比较广,社区活跃;
百炼应用,适合不想自己部署只在云端部署的情况(其他几种也有提供云端版本,但是访问速度比较慢)
LangFlow是langchain研制的,跟langchain体系结合比较深,适合在此基础上进行二次开发。