快速开始
1. 克隆整个项目到本地¶
2. 安装运行环境¶
3. 下载提取向量模型到本地¶
本项目目前以Moka-AI的m3e模型作为提取特征向量的主要模型,当然其他模型,也可自行配置。
将moka-ai/m3e-small下载下来放到assets/models/m3e-small目录下,下载命令如下:
4. 配置LLM API接口¶
首先需要单独在本地部署大模型,以API方式启动。以ChatGLM-6B为例,具体可参考ChatGLM2-6B API
随后,knowledge_qa_llm/llm/chatglm2_6b.py是调用上一步LLM接口的类。
如果自己使用的LLM,没有该文件,可自行实现,保证输入和输出与现有的一致即可。
5. 更改config.yaml配置文件¶
将调用ChatGLM-6B的llm_api的url写到knowledge_qa_llm/config.yaml配置文件中
6. 运行¶
Note
streamlit框架的启动,不可以用python webui.py方式启动,必须用以下方式启动。
UI Demo¶
CLI Demo¶