(四)oobabooga加载Vicuna7b,vicuna13b,chatglm模型

news/2024/11/26 5:45:07/

文章目录

  • 安装
    • Text generation web UI
  • 加载不同的模型
  • vicuna 7b
    • vicuna-13b-GPTQ-4bit-128g(资源够的,可以直接vicuna-13b)
    • chatglm6b

安装

环境:windows11
显卡:NVIDIA GeForce RTX 3090 version 526.98 显存 24G

pip install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1 --index-url https://download.pytorch.org/whl/cu118

Text generation web UI

https://github.com/oobabooga/text-generation-webui

下载 oobabooga-windows.zip 并解压G:\llm\oobabooga_windows\,直接运行start_window.bat

在这里插入图片描述
中途遇到报错
在这里插入图片描述
按照提示安装Visual C++ 14.0 ,安装地址在报错内容中有

error: Microsoft Visual C++ 14.0 or greater is required. Get it with "Microsoft C++ Build Tools": https://visualstudio.microsoft.com/visual-cpp-build-tools/

下载运行如下图,重点安装C++ CMake工具
在这里插入图片描述
备用:不用上述方法,其实可以安装几个依赖包解决,还没验证是不是这样可以解决

conda install libpython m2w64-toolchain -c msys2

修复上面问题后,把text-generation-webui删除掉,重新运行start_windows.bat, 这一步回到最后让你选择下载模型,我们关掉这个窗口,手动下载,往下看

加载不同的模型

huggingface 搜索模型页面 https://huggingface.co/models?sort=downloads

可以在启动的webui中切换不同模型,命令行效果如下图
在这里插入图片描述

vicuna 7b

Vicuna 的代码基于 Stanford Alpaca ,并额外支持多轮对话。 并且使用了与斯坦福羊驼(Stanford Alpaca)类似的超参数。

LLaMA-7b 模型不能直接使用(点击我查看详情),需要经历如下步骤

  1. LLaMA-7b 模型权重格式转换
  2. vicuna-7b-delta-v1.1 和 转换后的模型合并
    在这里插入图片描述

下载模型

# 下载这两个模型到任意目录# 下载已经转换的llama权重
https://huggingface.co/decapoda-research/llama-7b-hf
# vicuna-7b
https://huggingface.co/lmsys/vicuna-7b-delta-v1.1

权重合并,生成vicuna-7b-all-v1.1 文件夹,最后复制到text-generation-webui/models模型目录下

# 安装fastchat
pip install fastchat
# vicuna权重合并
python -m fastchat.model.apply_delta \--base llama-7b-hf \--delta vicuna-7b-delta-v1.1 \--target vicuna-7b-all-v1.1 

在目录oobabooga运行start_windows.bat

vicuna-13b-GPTQ-4bit-128g(资源够的,可以直接vicuna-13b)

GPTQ这种一般直接加载就可以使用了,不像前面那么麻烦,用这个版本就是穷,什么东西自己百度好了

模型地址 https://huggingface.co/anon8231489123/vicuna-13b-GPTQ-4bit-128g

双击运行cmd_windows.bat文件

# 进入 text-generation-webui 目录
cd text-generation-webui
# 下载模型
python download-model.py

在这里插入图片描述
输入L

输入non8231489123/vicuna-13b-GPTQ-4bit-128g不用输入域名就会自动下载模型了,保存在models文件

耐心等待文件下载,然后关闭窗口,

在目录oobabooga运行start_windows.bat,到这里就结束了

chatglm6b

方法如上,下载模型就可以直接在目录oobabooga运行start_windows.bat,不再重复

https://huggingface.co/THUDM/chatglm-6b

http://www.ppmy.cn/news/632626.html

相关文章

[7b2美化]柒比贰 魔改系列|7B2-分类封面添加波浪效果每日诗词

效果如图: 代码: 首先在style.css样式表里添加波浪样式 /*浪来了*/ .lang {overflow: hidden;width: 100%;position: absolute;left: 0;margin-top: -55px; }.lang__1 {background: url(https://dl.zhutix.net/2019/08/wave_01.png) repeat-x;width: 7000px;height: 60px;ani…

TPS7B6933QDCYRQ1 低压差稳压器、汽车应用

应用 • 汽车 • 具有睡眠模式的信息娱乐系统 • 永远在线的电池应用 -门模块 -远程无钥匙进入系统 - 防盗器 TPS7B69xx-Q1 器件是一款低压差线性稳压器,设计用于高达 40V VI 的操作。 该器件在轻负载时的静态电流仅为 15-A(典型值)&#xff…

报错与解决 | 应用程序无法启动0x7b mysql

文章目录 报错解决办法成功解决问题 报错 根据“MySQL下载安装使用-完整详细步骤”下载安装好MySQL后,以管理员身份启动cmd,输入: "D:\mysql\mysql-5.7.31-winx64\bin \mysqld.exe" --initialize-insecure # 自己的mysql安装目录…

OXOOOOOO7B

stop:OXOOOOOO7B(硬盘蓝屏) 蓝屏故障: 1.硬盘随着新旧主板的更换蓝屏 2.标准IDE和AHCI控制器没有安装驱动 3.磁盘有错误,文件目录损坏 4.关闭IDE通道控制器 5.无盘网络,系统未安装客户端网卡驱动,虚拟磁盘控制器未安装。…

StableLM(stablelm-tuned-alpha-7b)中文能力测试

模型地址:https://huggingface.co/stabilityai/stablelm-tuned-alpha-7b 基模型:GPT-NeoX 环境:2块3090(24G) 运行代码: from transformers import AutoModelForCausalLM, AutoTokenizer, StoppingCrite…

AquilaChat-7B: 国产开源大模型新成员——AI领域的创新型研发机构智源人工智能研究院出品

当生成式AI和大模型的飓风呼啸而来,全球掀起了一场狂热的GPT竞赛,大量紧迫的前沿议题随之接踵而至: 语言、视觉、多模态大模型分别有哪些研究突破口?如何显著提升大模型的计算速度、效率和扩展性?怎样确保大模型始终安全可控、符合人类意图和价值观?国内产学研界亟待做些…

如何微调Chinese-Vicuna-7b模型

环境建议:使用谷歌云GCP,国内的云环境实在是太慢了哦。github慢,pip 慢,下载模型也慢。 1.下载环境 !git clone https://github.com/Facico/Chinese-Vicuna !pip install -r ./Chinese-Vicuna/requirements.txt 2. 准备数据 js…

修改7b2认证图标

修改7b2认证图标 原文链接:https://www.xiaohulizyw.com/2191.html 原生的认证图标有的人不是很喜欢,喜欢自己去自定义,那么如何去修改? 1、首先打开主题函数文件路径为:/wp-content/themes/b2/functions.php 第23行…