文章目录
方法1:直接在Huggingface上下载,但是要fanqiang,可以git clone或者在代码中:
from huggingface_hub import snapshot_download
# snapshot_download(repo_id="decapoda-research/llama-7b-hf")
snapshot_download(repo_id="THUDM/chatglm3-6b")
方法2:使用modelscope:
pip install modelscope# 从modelscope上下载模型
from modelscope.hub.snapshot_download import snapshot_downloadmodel_dir = snapshot_download('baichuan-inc/baichuan-7B', cache_dir='./model', revision='master')
如果你网速很好,下载就很快,如果是kb/s,那么大文件下载会失败。
方法3:使用hf的镜像网站,https://hf-mirror.com/baichuan-inc
注:huggingface的镜像网站下载llama2系列模型如何加认证的信息啊?
加 huggingface access token 就可以下载,wget --header=“Authorization: Bearer <hf_token>” url ,如果是git clone,则提示输密码时输入access token。