项目简介
这是一个使用 Mixtral 8x7b 和 LlamaIndex 快速启动并运行完全本地化模型的演示项目。旨在展示如何使用 Python 处理大型文本数据,并结合 LLM(大型语言模型)进行实时查询和响应。
项目的主要特性和功能
- 依赖安装:需创建虚拟环境并安装特定的依赖库。
- 文本数据索引:导入 JSON 数据,用 LLM 处理和嵌入文本数据,再存储到向量存储中。
- 文本查询:支持基于文本的查询,可返回相关结果。
- Web 应用:提供基于 Flask 的 Web 应用,能处理文本查询请求并返回结果。
安装使用步骤
环境准备
- 创建虚拟环境(建议使用 conda 创建),注:本资源库中的脚本使用 python 3.10.9 运行,示例命令如下:
conda create -n mixtral_ollama python=3.10.9 conda activate mixtral_ollama cd mixtral_ollama
- 激活虚拟环境。
安装依赖
使用 pip 安装项目所需的依赖库,命令如下:
pip install -r requirements.txt
运行代码
- 下载 Ollama 并运行
ollama run mixtral
后,运行1_smoketest.py
以确保环境配置正确。 - 运行
2_index_data.py
以索引数据,此程序可多次运行,只会索引新数据。 - 运行
3_verify_index.py
以验证索引是否正常工作。 - 运行
app.py
启动 Web 应用,请注意,"flask run "不起作用,您必须运行 "python app.py",之后可通过浏览器访问应用进行文本查询。
注意:这是一个高级项目,需要一定的 Python 和大型语言模型知识才能完全理解和使用。如果您是初学者,建议先学习相关的基础知识。
下载地址
点击下载 【提取码: 4003】【解压密码: www.makuang.net】