Update README.md
This commit is contained in:
parent
b5632d5ea1
commit
4c18cf035f
@ -29,7 +29,7 @@ ChatGLM2-6B 开源模型旨在与开源社区一起推动大模型技术发展
|
|||||||
|
|
||||||
## 友情链接
|
## 友情链接
|
||||||
对 ChatGLM2 进行加速的开源项目:
|
对 ChatGLM2 进行加速的开源项目:
|
||||||
* [fastllm](https://github.com/ztxz16/fastllm/): 全平台加速推理方案,单GPU每秒可达10000+token,手机端最低3G内存实时运行(骁龙865上约4~5 token/s)
|
* [fastllm](https://github.com/ztxz16/fastllm/): 全平台加速推理方案,单GPU批量推理每秒可达10000+token,手机端最低3G内存实时运行(骁龙865上约4~5 token/s)
|
||||||
* [chatglm.cpp](https://github.com/li-plus/chatglm.cpp): 类似 llama.cpp 的 CPU 量化加速推理方案,实现 Mac 笔记本上实时对话
|
* [chatglm.cpp](https://github.com/li-plus/chatglm.cpp): 类似 llama.cpp 的 CPU 量化加速推理方案,实现 Mac 笔记本上实时对话
|
||||||
|
|
||||||
## 评测结果
|
## 评测结果
|
||||||
|
Loading…
Reference in New Issue
Block a user