ChatGLM(国内版的chatGPT)
Git链接:
GitHub - THUDM/ChatGLM-6B: ChatGLM-6B:开源双语对话语言模型 | An Open Bilingual Dialogue Language Model
介绍
ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答,更多信息请参考我们的博客。
为了方便下游开发者针对自己的应用场景定制模型,我们同时实现了基于 P-Tuning v2 的高效参数微调方法 (使用指南) ,INT4 量化级别下最低只需 7GB 显存即可启动微调。
不过,由于 ChatGLM-6B 的规模较小,目前已知其具有相当多的局限性,如事实性/数学逻辑错误,可能生成有害/有偏见内容,较弱的上下文能力,自我认知混乱,以及对英文指示生成与中文指示完全矛盾的内容。请大家在使用前了解这些问题,以免产生误解。更大的基于 1300 亿参数 GLM-130B 的 ChatGLM 正在内测开发中。
Read this in English.
更新信息
[2023/03/31] 增加基于 P-Tuning-v2 的高效参数微调实现,INT4 量化级别下最低只需 7GB 显存即可进行模型微调。详见高效参数微调方法。
[2023/03/23] 增加 API 部署(感谢 @LemonQu-GIT)。增加 Embedding 量化模型 ChatGLM-6B-INT4-QE。增加配备 Apple Silicon 芯片的 Mac 上 GPU 加速的支持。
[2023/03/19] 增加流式输出接口 stream_chat
,已更新到网页版和命令行 Demo。修复输出中的中文标点。增加量化后的模型 ChatGLM-6B-INT4
友情链接
以下是部分基于本仓库开发的开源项目:
- ChatGLM-MNN: 一个基于 MNN 的 ChatGLM-6B C++ 推理实现,支持根据显存大小自动分配计算任务给 GPU 和 CPU
- ChatGLM-Tuning: 基于 LoRA 对 ChatGLM-6B 进行微调。类似的项目还包括 Humanable ChatGLM/GPT Fine-tuning | ChatGLM 微调
- langchain-ChatGLM:基于本地知识的 ChatGLM 应用,基于LangChain
- 闻达:大型语言模型调用平台,基于 ChatGLM-6B 实现了类 ChatPDF 功能
以下是部分针对本项目的教程/文档:
- Windows部署文档
如果你有其他好的项目/教程的话,欢迎参照上述格式添加到 README 中并提出 Pull Request。
使用方式
硬件需求
量化等级 | 最低 GPU 显存(推理) | 最低 GPU 显存(高效参数微调) |
---|---|---|
FP16(无量化) | 13 GB | 14 GB |
INT8 | 8 GB | 9 GB |
INT4 | 6 GB | 7 GB |
环境安装
使用 pip 安装依赖:pip install -r requirements.txt
,其中 transformers
库版本推荐为 4.27.1
,但理论上不低于 4.23.1
即可。
代码调用
可以通过如下代码调用 ChatGLM-6B 模型来生成对话:
>>> from transformers import AutoTokenizer, AutoModel >>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) >>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda() >>> model = model.eval() >>> response, history = model.chat(tokenizer, "你好", history=[]) >>> print(response) 你好ChatGLM(国内版的chatGPT)相关推荐
- 国内版的ChatGPT弯道超车的机会在哪里?
前言 从去年11月最后一天ChatGPT诞生,截至目前,ChatGPT的热度可谓是爆了.众所周知,ChatGPT是美国"开放人工智能研究中心"研发的聊天机器人程序,它是一个人工智能 ...
- 国内版 ChatGPT值不值得上手----PlumGPT测评
前言:什么是PlumGPT(国内版的chatgpt),PlumGPT国内版ChatGPT是一个基于GPT-3.5算法的人工智能聊天机器人,能够通过自然语言与用户交互,提供各种服务和解答各种问题.本文将 ...
- MarioGPT自动生成“超级玛丽”;周鸿祎:ChatGPT可能产生意识;国内版ChatGPT复旦首发,但“非常不成熟”...
本周,AI业界又有哪些新鲜事? ChatGPT 国内版ChatGPT首发被复旦"抢注",但非常不成熟? 虽然各大厂如火如荼地备战国内版"GPT",但谁也没抢到这 ...
- 国内版chatgpt来了,无限制,完美访问。
国内版chatgpt来了,无限制,完美访问.
- New Bing已经出来了,怎么防止Bing跳转到国内版(cn.bing.com)?
New Bing已经可以使用了,但很多小伙伴的Bing浏览器还会默认跳转到国内版(cn.bing.com),如何解决这个问题? 首先声明,下面的操作需要科学上网才能生效 首先打开Bing的扩展程序功能 ...
- 国内各大厂ChatGPT技术布局及应用场景
2023年无疑会是AIGC掀起浪潮的一年,自从微软投资的OpenAI 研究室发布了神仙级别的自然语言生成式AI--chatGPT之后,人工智能领域也算是被彻底"杀疯了". 有人说 ...
- 支持国内版Office 365的PowerShell模块现已发布
作者:陈希章 发表于2017年5月12日 上一篇文章我详细介绍了如何在PowerShell中访问到Office 365的Graph API,在文章结尾处我留了一个问题,希望有朋友可以根据那个思路,尝试 ...
- 火狐导cookie文件没反应_效率指南|实操区分FireFox火狐的国内版和国际版
Firefox分为了国内版.国际版,书签.历史记录.设置等不支持互相同步.本来想图个方便,在国内的互联网环境下,放弃了无法登录的Chrome,上车Firefox就是看中电脑.手机端(iPhone端不同 ...
- 国内版Office 365和Azure AAD绑定的问题及解决方案
国内版Office 365和Azure AAD绑定的问题及解决方案 参考文章: (1)国内版Office 365和Azure AAD绑定的问题及解决方案 (2)https://www.cnblogs. ...
最新文章
- 希捷发布CORTX对象存储软件与开源社区,普惠超大规模数据存储
- 【AAAI2022】GearNet:弱监督领域自适应的逐步对偶学习
- 解决哈希(HASH)冲突的主要方法
- 9个元素换6次达到排序序列_一文带你读懂排序算法(三):堆排序算法
- go slice切片详解:定义、遍历、追加切片、切片拷贝
- 推荐Web前端初学者应该知道的书籍和网站
- 【暴力】I Liked Matrix!
- java位运算求幂,程序员必学:快速幂算法
- Ntdll32.dll病毒清除办法
- java环境变量大小写_java环境变量配置
- Android科大讯飞语音识别源码及API下载
- C#基础1:输入输出+变量定义
- Linux视频编解码库,Ubuntu 18.04 FFMPEG最新版本安装总结
- 编程珠玑java_编程珠玑第八章
- 计算机网络ping本机ip,使用ping命令检查本机的TCP / IP协议
- 获取url地址栏后面的参数
- refactoring的思考
- 3D模型【长方形蜂巢】
- OpenSSL 最新版 快速安装 v3.0.2 v1.1.1n Windows系统
- KVM管理平台选型与开源企业级虚拟化平台oVirt详解
热门文章
- js正则校验[{key:xx,val:xx}]格式
- 利用Crosstool-ng 1.3.3 生成powerpc交叉编译工具链
- AlexNet网络的搭建以及训练花分类
- 关于Android LiveCD的几点问题
- 给研华, 控创, 西门子, 凌华, 研祥, 艾迅, 盛博, 诺达佳, 阿普奇 ,桦汉工控机外扩一路,二路CAN,四路等CAN通讯
- 初学者安装ns3详细步骤
- 计算机思维与逻辑思维的区别,逻辑(思维的规律和规则)_百度百科
- SaaS公司融资的「22条军规 」
- 如何为英伟达TX2编译内核和设备树
- slot,插槽二三事