Note
当前项目还处于开发的早期,还存在一些 BUG,有问题随时提 issue。
基于大模型 RAG 知识库与知识图谱的问答平台。Llamaindex + VueJS + Flask + Neo4j。大模型适配 OpenAI、国内主流大模型平台的模型调用、本地 vllm 部署。只需要配置对应服务平台的 API_KEY
即可使用。
在启动之前,提供 API 服务商的 API_KEY,并放置在 src/.env
文件中。默认使用的是智谱AI。因此务必需要配置 ZHIPUAI_API_KEY=<ZHIPUAI_API_KEY>
。其余模型的配置可以参考 src/config/models.yaml 中的 env。
ZHIPUAI_API_KEY=270ea********8bfa97.e3XOMd****Q1Sk
OPENAI_API_KEY=sk-*********[可选]
本项目的基础对话服务可以在不含显卡的设备上运行,大模型使用在线服务商的接口。但是如果想要完整的知识库对话体验,则需要 8G 以上的显存。因为需要本地运行 embedding 模型和 rerank 模型。
提醒:下面的脚本会启动开发版本,源代码的修改会自动更新(含前端和后端)。如果生产环境部署,请使用 docker/docker-compose.yml
启动。
docker-compose -f docker/docker-compose.dev.yml up --build
*也可以加上 -d
参数,后台运行。
下面的这些容器都会启动:
[+] Running 7/7
✔ Network docker_app-network Created
✔ Container graph-dev Started
✔ Container milvus-etcd-dev Started
✔ Container milvus-minio-dev Started
✔ Container milvus-standalone-dev Started
✔ Container api-dev Started
✔ Container web-dev Started
然后打开 http://localhost:5173/ 就可以看到结果了。
预览
关闭 docker 服务:
docker-compose -f docker/docker-compose.dev.yml down
查看日志:
docker logs <CONTAINER_NAME> # 例如:docker logs api-dev
如果需要使用到本地模型(不推荐手动指定),比如向量模型或者重排序模型,则需要将环境变量中设置的 MODEL_ROOT_DIR
做映射,比如本地模型都是存放在 /hdd/models
里面,则需要在 docker-compose.yml
和 docker-compose.dev.yml
中添加:
services:
api:
build:
context: ..
dockerfile: docker/api.Dockerfile
container_name: api-dev
working_dir: /app
volumes:
- ../src:/app/src
- ../saves:/app/saves
- /hdd/zwj/models:/hdd/zwj/models # <== 修改这一行
生产环境部署:本项目同时支持使用 Docker 部署生产环境,只需要更换 docker-compose
文件就可以了。
docker-compose -f docker/docker-compose.yml up --build
模型仅支持通过API调用的模型,如果是需要运行本地模型,则建议使用 vllm 转成 API 服务之后使用。使用前请在 .env
配置 APIKEY 后使用,配置项目参考:src/config/models.yaml
模型供应商 | 默认模型 | 配置项目 |
---|---|---|
openai |
gpt-4o |
OPENAI_API_KEY |
qianfan (百度) |
ernie_speed |
QIANFAN_ACCESS_KEY , QIANFAN_SECRET_KEY |
zhipu (默认) |
glm-4-flash (免费) |
ZHIPUAI_API_KEY |
dashscope (阿里) |
qwen-max-latest |
DASHSCOPE_API_KEY |
deepseek |
deepseek-chat |
DEEPSEEK_API_KEY |
siliconflow |
meta-llama/Meta-Llama-3.1-8B-Instruct |
SILICONFLOW_API_KEY |
同样支持以 OpenAI 的兼容模型运行模型,可以直接在 Web 设置里面添加。比如使用 vllm 和 Ollama 运行本地模型时。
建议直接使用智谱 AI 的 embedding-3,这样不需要做任何修改,且资费不贵。
Warning
需要注意,由于知识库和图数据库的构建都依赖于向量模型,如果中途更改向量模型,会导致知识库不可用。此外,知识图谱的向量索引的建立默认使用 embedding-3 构建,因此检索的时候必须使用 embedding-3(现阶段还不支持修改)
模型名称(config.embed_model ) |
默认路径/模型 | 需要配置项目(config.model_local_paths ) |
---|---|---|
bge-large-zh-v1.5 |
BAAI/bge-large-zh-v1.5 |
bge-large-zh-v1.5 |
zhipu |
embedding-2 , embedding-3 |
ZHIPUAI_API_KEY (.env ) |
目前仅支持 BAAI/bge-reranker-v2-m3
。
对于语言模型,并不支持直接运行本地语言模型,请使用 vllm 或者 ollama 转成 API 服务之后使用。
对于向量模型和重排序模型,可以不做修改会自动下载模型,如果下载过程中出现问题,请参考 HF-Mirror 配置相关内容。如果想要使用本地已经下载好的模型(不建议),可以在 saves/config/config.yaml
配置相关内容。同时注意要在 docker 中做映射,参考 README 中的 docker/docker-compose.yml
。
例如:
model_local_paths:
bge-large-zh-v1.5: /models/bge-large-zh-v1.5
本项目支持多种格式的知识库,目前支持的格式有:pdf、txt、md。文件上传后,会首先转换为纯文本,然后使用向量模型将文本转换为向量,然后存储到向量数据库中。这个过程可能会花费不少时间。
Note
现阶段项目所使用的 OneKE 自动创建知识图谱的效果并不是很好,暂时移除了,建议在项目外创建知识图谱**
本项目支持 Neo4j 作为知识图谱的存储。需要将图谱整理成 jsonl 的格式,每一行都是 {"h": "北京", "t": "中国", "r": "首都"} 这样的格式,然后在网页的图谱管理里面添加这个文件。
项目启动后会自动启动 neo4j 服务,可以直接使用 http://localhost:7474/ 去访问和管理图数据库,初始默认的账户密码是 neo4j
和 0123456789
。可以在 docker/docker-compose.yml
和 docker\docker-compose.dev.yml
中修改(注:api.environment
和 graph.environment
都需要修改)。
目前项目中暂不支持同时查询多个知识图谱,短期内也没有计划支持。不过倒是可以通过配置不同的 NEO4J_URI
服务来切换知识图谱。如果已经有了基于 neo4j 的知识图谱,可以将 docker-compose.yml
中的 graph
配置项删除,并将 api.environment
中的 NEO4J_URI
配置项修改为 neo4j 的服务地址。
- 2024.10.12 后端修改为 FastAPI,并添加了 Milvus-Standalone 的独立部署。
如果无法直接下载相关镜像,参考 DaoCloud/public-image-mirror,尝试将前缀替换为:
# 以 neo4j 为例,其余一样
docker pull m.daocloud.io/docker.io/library/neo4j:latest
# 然后重命名镜像
docker tag m.daocloud.io/docker.io/library/neo4j:latest neo4j:latest