大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。
本文主要介绍了高速下载ChatGLM模型文件的解决方案,希望能对学习ChatGLM的同学们有所帮助。需要说明的是,该解决方案对不同操作系统(Windows、Linux和Mac)都是通用的。
文章目录
- 1. 问题描述
- 2. 解决方案
- 2.1 安装依赖库
- 2.2 运行代码
1. 问题描述
最近和学习ChatGLM的同学们进行交流,其中比较麻烦的一点就是由于ChatGLM的模型文件需要从huggingface上clone而得,导致部分同学要么无法下载,要么就是下载速度很慢,大大耽误了学习使用ChatGLM的进程。所以如何在国内高速下载ChatGLM模型文件就成为了我们必须要跨越的第一个门槛。
在经过了亲身的实践后,终于找到了解决问题的方案,最终将其详细总结如下。不仅包含了解决方案,而且讲述了解决方案的探索过程,希望能对遇到同样bug的同学有所帮助。