2024-01-27 03:45:36 +08:00
2024-01-27 03:45:36 +08:00
2024-01-27 03:45:36 +08:00
2024-01-27 03:45:36 +08:00
2024-01-27 03:45:36 +08:00
2024-01-27 03:45:36 +08:00
2024-01-27 03:45:36 +08:00

chat.guanjihuan.com

这里把 https://chat.guanjihuan.com 的主要实现代码进行开源,主要参考开源大模型的 GitHub 或 HuggingFace 主页、第三方模型的 API 官网,以及 HuggingFace 和 Pytorch 的文档等。

此外,还有很多开源大模型,这里只测试了几个,感兴趣的可以自行测试,通常 16G 显存的显卡可以完整加载 7B 左右的模型70亿参数以及量化地加载 14B 左右的模型14亿参数更大参数空间的模型的运行需要更大显存的显卡。

运行代码需要安装 Python 环境,可以选择安装 Anacondahttps://www.anaconda.com 。如果是本地 GPU 运行模型,还需要 Nvidia 显卡。特别说明:本篇提供了在本地 CPU 加载 ChatGLM 模型的代码,没有独立显卡的可以考虑这个,只是对话速度会比较慢。

Web 框架是使用 Streamlithttps://streamlit.io、https://github.com/streamlit/streamlit

Streamlit 的安装:

pip install streamlit

运行命令:

streamlit run web_demo.py

python -m streamlit run web_demo.py

如果是在公网IP下访问并指定8501端口和黑色主题那么运行命令为

streamlit run web_demo.py --theme.base dark --server.port 8501 --server.address 0.0.0.0 

为了防止一些不必要的报错,可以更新一下操作系统的显卡驱动并重启:

sudo apt-get update

sudo apt-get install ubuntu-drivers-common

sudo ubuntu-drivers autoinstall

此外,可以更新一下 Pytorchhttps://pytorch.org/get-started/locally/),也可以防止一些报错

conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

一、本地运行开源模型

1. 开源模型 ChatGLM

ChatGLM3-6B 主页:https://github.com/THUDM/ChatGLM3 。 安装该模型依赖的环境:

pip install -r requirements.txt

模型文件下载:https://huggingface.co/THUDM/chatglm3-6b-32k

显存/内存要求:量化加载大概要 6G 显存;默认加载大概需要 13G 显存CPU加载大概需要 25G 内存。

运行:

python -m streamlit run ./ChatGLM3.py --theme.base dark --server.port 8501

如果量化加载时 bitsandbytes 报错那么安装该软件包pip install bitsandbytes

2. 开源模型 Qwen

Qwen 主页:https://github.com/QwenLM/Qwen 。 安装该模型依赖的环境:

pip install -r requirements.txt

Qwen-7B-Chat-Int4 模型文件下载:https://huggingface.co/Qwen/Qwen-7B-Chat-Int4

Qwen-14B-Chat-Int4 模型文件下载:https://huggingface.co/Qwen/Qwen-14B-Chat-Int4

显存要求Qwen-7B-Chat-Int4 大概需要 8G 显存Qwen-14B-Chat-Int4 大概需要 12G 显存。

运行:

python -m streamlit run ./Qwen.py --theme.base dark --server.port 8501

此外,如果运行有报错,可能还需要安装:

pip install optimum
pip install auto-gptq
pip install --upgrade s3fs aiobotocore botocore

3. 开源模型 InternLM

InternLM 主页:https://github.com/InternLM/InternLM 。运行代码时,需要调用其中的 tools 文件夹。

internlm-chat-7b 模型文件下载:https://huggingface.co/internlm/internlm-chat-7b

internlm2-chat-7b 模型文件下载:https://huggingface.co/internlm/internlm2-chat-7b

目前提供的代码是加载 internlm-chat-7b 模型,加载 internlm2-chat-7b 模型的未测试。

显存要求:大概需要 7B 的显存。

运行:

python -m streamlit run ./InternLM.py --theme.base dark --server.port 8501

二、使用第三方模型 API

1. 智谱 - ChatGLM_Turbo

智谱 - ChatGLM Turbo 的 API key 获取(收费,可免费试用):https://maas.aminer.cn

运行:

python -m streamlit run ./ChatGLM_Turbo.py --theme.base dark --server.port 8501

2. 讯飞 - 星火大模型

讯飞 - 星火大模型的 API key 获取(收费,可免费试用):https://xinghuo.xfyun.cn

运行:

python -m streamlit run ./星火大模型.py --theme.base dark --server.port 8501
Description
No description provided
Readme 856 KiB
Languages
Python 100%