From 42ba5df3c52c34822ca83b45e3209877ee0b006f Mon Sep 17 00:00:00 2001 From: guanjihuan Date: Sat, 30 Mar 2024 10:44:45 +0800 Subject: [PATCH] Update README.md --- README.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/README.md b/README.md index 6599d81..6efa247 100644 --- a/README.md +++ b/README.md @@ -1,6 +1,6 @@ ## chat.guanjihuan.com -这里把 https://chat.guanjihuan.com 的主要实现代码进行开源。代码参考各个开源大模型的 GitHub 或 HuggingFace 主页、第三方模型的 API 官网,以及 HuggingFace 和 Pytorch 的文档等。 +这里把 https://chat.guanjihuan.com 的主要实现代码进行开源。代码参考各个开源大模型的 GitHub 或 HuggingFace 主页、大语言模型的 API 官网,以及 HuggingFace 和 Pytorch 的文档等。 硬件要求:如果是本地 GPU 运行模型,还需要 Nvidia 显卡,至少 6G 显存。说明:这里只测试了几个模型,还有更多开源大模型,感兴趣的可以自行测试。通常,8G 显存的显卡可以量化地加载 7B 左右的模型(70亿参数);16G 显存的显卡可以完整加载 7B 左右的模型(70亿参数)或量化地加载 14B 左右的模型(140亿参数);更大参数空间的模型的运行需要更大显存的显卡。开源大模型的排行榜有:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard 、https://cevalbenchmark.com/static/leaderboard.html 、https://opencompass.org.cn/leaderboard-llm 。 @@ -114,7 +114,7 @@ internlm-chat-7b 模型文件下载:https://huggingface.co/internlm/internlm-c python -m streamlit run ./InternLM.py --theme.base dark --server.port 8501 ``` -### 三、使用第三方模型 API +### 三、使用大语言模型 API #### 1. 智谱 - ChatGLM_Turbo