diff --git a/README.md b/README.md index 3fa47a2..3d1c9ac 100644 --- a/README.md +++ b/README.md @@ -131,7 +131,7 @@ python -m streamlit run ./InternLM.py --theme.base dark --server.port 8501 python -m streamlit run ./ChatGLM_Turbo.py --theme.base dark --server.port 8501 ``` -说明:当前代码只对 pip install zhipuai==1.0.7 有效,对最新版本不兼容。 +说明:当前代码只对 pip install zhipuai==1.0.7 有效,对最新版本不兼容。另外,早期使用的模型调用是 model='chatglm_turbo', 官网文档最新的模型是 model="glm-3-turbo"。工单客服回复内容为:“chatglm_turbo与glm-3-turbo是不同的模型,glm-3-turbo理论上能力优于chatglm_turbo,且价格更便宜”。个人推荐 glm-4-flash 模型。 #### 2. 阿里 - Qwen_Turbo diff --git a/模型API - 智谱 - ChatGLM_Turbo/ChatGLM_Turbo.py b/模型API - 智谱 - ChatGLM_Turbo/ChatGLM_Turbo.py index 40bc3cf..9b19491 100644 --- a/模型API - 智谱 - ChatGLM_Turbo/ChatGLM_Turbo.py +++ b/模型API - 智谱 - ChatGLM_Turbo/ChatGLM_Turbo.py @@ -32,7 +32,7 @@ with st.sidebar: def chatglm_chat(prompt=[]): response = zhipuai.model_api.sse_invoke( - model="chatglm_turbo", + model="glm-3-turbo", prompt=prompt, temperature=temperature, top_p=top_p,