支持图像和视频理解多模态开源大模型:CogVLM2 CogVLM2-Video

ops/2024/12/13 5:35:23/

在这里插入图片描述
CogVLM2和CogVLM2-Video是新一代的开源模型,支持图像和视频理解,具有显著的性能提升。最近发布的更新包括CogVLM2论文的发表、在线演示和对视频理解的支持,能够处理最多1分钟的视频。新模型支持中英文,文本长度可达8K,图像分辨率高达1344x1344,且在多个基准测试中表现优异。开发者可以通过提供的API和演示快速入门。

来源:https://github.com/THUDM/CogVLM2
论文:https://arxiv.org/pdf/2408.16500

在这里插入图片描述

以下内容来源github翻译:

CogVLM2 & CogVLM2-Video

近期更新

  • 🔥 News: 2024/8/30: CogVLM2论文已经发布到arXiv。
  • 🔥 News: 2024/7/12: 我们开放了 CogVLM2-Video 在线体验网址, 欢迎前往体验。
  • 🔥 News: 2024/7/8: 我们发布了 CogVLM2 模型的视频理解版本 CogVLM2-Video
    模型,通过抽取关键帧的方式,实现对连续画面的解读,该模型可以支持最高1分钟的视频。阅读我们 博客
    查看更多信息。
  • 🔥 News2024/6/8:我们发布 CogVLM2 TGI 模型权重
    ,这是一个可以在 TGI
    环境加速推理的模型。您可以使用这里的代码在TGI上运行 CogVLM2 模型。
  • 🔥 News2024/6/5:我们发布 GLM-4V-9B,它使用与 CogVLM2 相同的数据和训练配方,但以
    GLM-4-9B 作为语言主干。我们删除了视觉专家,以将模型大小减小到
    13B。更多详细信息,请参阅 GLM-4 repo。
  • 🔥 News2024/5/24:我们发布了 Int4 版本模型,仅需要 16GB 显存即可进行推理。欢迎前来体验!
  • 🔥 News2024/5/20:我们发布了 CogVLM2 模型,它基于 llama3-8b,在大多数情况下与 GPT-4V 相当(或更好)!欢迎下载!

模型介绍

我们推出了新一代的 CogVLM2
系列模型并开源了两款基于 Meta-Llama-3-8B-Instruct
开源模型。与上一代的 CogVLM 开源模型相比,CogVLM2 系列开源模型具有以下改进:

  1. 在许多关键指标上有了显著提升,例如 TextVQA, DocVQA
  2. 支持 8K 文本长度。
  3. 支持高达 1344 * 1344 的图像分辨率。
  4. 提供支持中英文双语的开源模型版本。

您可以在下表中看到 CogVLM2 系列开源模型的详细信息:

模型名称cogvlm2-llama3-chat-19Bcogvlm2-llama3-chinese-chat-19Bcogvlm2-video-llama3-chatcogvlm2-video-llama3-base
基座模型Meta-Llama-3-8B-InstructMeta-Llama-3-8B-InstructMeta-Llama-3-8B-InstructMeta-Llama-3-8B-Instruct
语言英文中文、英文英文英文
任务图像理解,多轮对话模型图像理解,多轮对话模型视频理解,单轮对话模型视频理解,基座模型,不可对话
模型链接🤗 Huggingface 🤖 ModelScope 💫 Wise Model🤗 Huggingface 🤖 ModelScope 💫 Wise Model🤗 Huggingface 🤖 ModelScope🤗 Huggingface 🤖 ModelScope
体验链接📙 Official Page📙 Official Page 🤖 ModelScope🤗 Huggingface 🤖 ModelScope🤗 Huggingface 🤖 ModelScope
Experience Link📙 Official Page📙 Official Page 🤖 ModelScope📙 Official Page 🤖 ModelScope/
Int4 模型🤗 Huggingface 🤖 ModelScope 💫 Wise Model🤗 Huggingface 🤖 ModelScope 💫 Wise Model//
文本长度8K8K2K2K
图片分辨率1344 * 13441344 * 1344224 * 224 (视频,取前24帧)224 * 224 (视频,取平均24帧)

Benchmark

图像理解能力

我们的开源模型相较于上一代 CogVLM 开源模型,在多项榜单中取得较好的成绩。其优异的表现能与部分的非开源模型进行同台竞技,如下表所示:

ModelOpen SourceLLM SizeTextVQADocVQAChartQAOCRbenchMMMUMMVetMMBench
CogVLM1.17B69.7-68.359037.352.065.8
LLaVA-1.513B61.3--33737.035.467.7
Mini-Gemini34B74.1---48.059.380.6
LLaVA-NeXT-LLaMA38B-78.269.5-41.7-72.1
LLaVA-NeXT-110B110B-85.779.7-49.1-80.5
InternVL-1.520B80.690.983.872046.855.482.3
QwenVL-Plus-78.991.478.172651.455.767.0
Claude3-Opus--89.380.869459.451.763.3
Gemini Pro 1.5-73.586.581.3-58.5--
GPT-4V-78.088.478.565656.867.775.0
CogVLM2-LLaMA3 (Ours)8B84.292.381.075644.360.480.5
CogVLM2-LLaMA3-Chinese (Ours)8B85.088.474.778042.860.578.9

所有评测都是在不使用任何外部OCR工具(“only pixel”)的情况下获得的。

视频理解能力

下图显示了 CogVLM2-Video
在 MVBench、VideoChatGPT-Bench
和 Zero-shot VideoQA 数据集 (MSVD-QA、MSRVTT-QA、ActivityNet-QA) 上的性能。

在这里插入图片描述

其中 VCG 指的是 VideoChatGPTBench,ZS 指的是零样本 VideoQA 数据集,MV-* 指的是 MVBench 中的主要类别。具体榜单测试数据如下:

ModelsVCG-AVGVCG-CIVCG-DOVCG-CUVCG-TUVCG-COZS-AVG
IG-VLM GPT4V3.173.402.803.612.893.1365.70
ST-LLM3.153.233.053.742.932.8162.90
ShareGPT4VideoN/AN/AN/AN/AN/AN/A46.50
VideoGPT+3.283.273.183.742.833.3961.20
VideoChat2_HD_mistral3.103.402.913.722.652.8457.70
PLLaVA-34B3.323.603.203.902.673.2568.10
CogVLM2-Video3.413.493.463.872.983.2366.60

CogVLM2-Video 在 MVBench 数据集上的表现

ModelsAVGAAACALAPASCOCIENERFAFPMAMCMDOEOIOSSTSCUA
IG-VLM GPT4V43.772.039.040.563.555.552.011.031.059.046.547.522.512.012.018.559.029.583.545.073.5
ST-LLM54.984.036.531.053.566.046.558.534.541.544.044.578.556.542.580.573.538.586.543.058.5
ShareGPT4Video51.279.535.541.539.549.546.551.528.539.040.025.575.062.550.582.554.532.584.551.054.5
VideoGPT+58.783.039.534.060.069.050.060.029.544.048.553.090.571.044.085.575.536.089.545.066.5
VideoChat2_HD_mistral62.379.560.087.550.068.593.571.536.545.049.587.040.076.092.053.062.045.536.044.069.5
PLLaVA-34B58.182.040.549.553.067.566.559.039.563.547.050.070.043.037.568.567.536.591.051.579.0
CogVLM2-Video62.385.541.531.565.579.558.577.028.542.554.057.091.573.048.091.078.036.091.547.068.5

项目结构

本开源仓库将带领开发者快速上手 CogVLM2 开源模型的基础调用方式、微调示例、OpenAI API格式调用示例等。具体项目结构如下,您可以点击进入对应的教程链接:

basic_demo 文件夹包括:

  • CLI 演示,推理 CogVLM2 模型。
  • CLI 演示,使用多个GPU推理 CogVLM2 模型。
  • Web 演示,由 chainlit 提供。
  • API 服务器,采用 OpenAI 格式。
  • Int4 可以通过 --quant 4 轻松启用,内存使用为16GB。

finetune_demo 文件夹包括:

  • peft 框架的高效微调示例。

video_demo 文件夹包括:

  • CLI 演示,推理 CogVLM2-Video 模型。
  • Int4 可以通过 --quant 4 轻松启用,内存使用为16GB。
  • Restful API 服务。
  • Gradio 演示。

模型协议

该模型根据 CogVLM2 LICENSE 许可证发布。对于使用了Meta Llama
3基座模型构建的模型,需要同时遵守 LLAMA3_LICENSE 许可证。

引用

如果您发现我们的工作有所帮助,请考虑引用以下论文:

@article{hong2024cogvlm2,title={CogVLM2: Visual Language Models for Image and Video Understanding},author={Hong, Wenyi and Wang, Weihan and Ding, Ming and Yu, Wenmeng and Lv, Qingsong and Wang, Yan and Cheng, Yean and Huang, Shiyu and Ji, Junhui and Xue, Zhao and others},journal={arXiv preprint arXiv:2408.16500},year={2024}
}
@misc{wang2023cogvlm,title={CogVLM: Visual Expert for Pretrained Language Models}, author={Weihan Wang and Qingsong Lv and Wenmeng Yu and Wenyi Hong and Ji Qi and Yan Wang and Junhui Ji and Zhuoyi Yang and Lei Zhao and Xixuan Song and Jiazheng Xu and Bin Xu and Juanzi Li and Yuxiao Dong and Ming Ding and Jie Tang},year={2023},eprint={2311.03079},archivePrefix={arXiv},primaryClass={cs.CV}
}

参考资料

http://cogvlm2-online.cogviewai.cn:7868/
复现:https://blog.csdn.net/hejiahao_/article/details/139449516
https://blog.csdn.net/qq_43501322/article/details/143725056?utm_medium=distribute.pc_relevant.none-task-blog-2defaultbaidujs_baidulandingword~default-0-143725056-blog-139449516.235v43pc_blog_bottom_relevance_base6&spm=1001.2101.3001.4242.1&utm_relevant_index=3
https://blog.csdn.net/LateLinux/article/details/140521281
https://huggingface.co/collections/THUDM/cogvlm2-6645f36a29948b67dc4eef75


http://www.ppmy.cn/ops/141101.html

相关文章

深度学习:MindSpore自动并行

随着模型规模的逐渐增大,需要的算力逐渐增强,但是算力需求增长速度远高于芯片算力增长速度。现在唯一的解决方案只有通过超大规模集群训练大模型。 大集群训练大模型的挑战 内存墙 200B参数量的模型,参数内存占用745GB内存,训练…

目前Java后端就业前景到底怎么样?

很多人都说今年对于IT行业根本没有所谓的“金三银四”“金九银十”。在各大招聘网站或者软件上不管是大厂还是中小公司大多都是挂个招聘需求,实际并不招人;在行业内的程序员基本都已经感受到了任老前段时间口中所谓的“寒气”。 虽然事实确实是如此&…

HarmonyOS-高级(一)

文章目录 一次开发、多端部署自由流转 🏡作者主页:点击! 🤖HarmonyOS专栏:点击! ⏰️创作时间:2024年12月09日12点19分 一次开发、多端部署 布局能力 自适应布局 拉伸能力均分能力占比能力缩放…

数据结构 (30)计算式查找法——哈希法

前言 数据结构中的计算式查找法,特别是哈希法(又称散列法、杂凑法、关键字地址计算法),是一种高效的查找技术。 一、哈希法的基本概念 哈希法是通过一个哈希函数将关键字映射到哈希表中的某个位置,从而实现快速查找的技…

【代码随想录|贪心算法05】

56.合并区间 题目链接56. 合并区间 - 力扣&#xff08;LeetCode&#xff09; 这道题思路跟前两道也很像&#xff0c;就是更新把相同的区间合并而已。 class Solution { public: static bool cmp(const vector<int>& a,const vector<int>& b){return a[0…

Linux 切换用户的两种方法

sudo -su user1 与 su - user1 都可以让当前用户切换到 user1 的身份执行命令或进入该用户的交互式 Shell。但它们在权限认证方式、环境变量继承和 Shell 初始化过程等方面存在一些差异。 权限认证方式 su - user1 su 是 “switch user” 的缩写&#xff0c;默认情况下需要你输…

计算机病毒的特效及种类【知识点+逐字稿+答辩题】----高中信息技术教资面试

【涉及的知识点】 1.计算机病毒的五个特征&#xff1a; 寄生性&#xff1b;不是单独一个程序出现在计算机系统中&#xff0c;必须依附在计算机的操作系统、可执行的文件甚至数据文件 传染性&#xff1b;有很强的再生功能&#xff0c;具有传染性。这也是判断一个计算机程序是…

K8S的常见volumes存储卷

volumes分类 。emptyDir&#xff1a;临时存储&#xff0c;在 pod 生命周期内存在。可以对pod内多个容器进行数据持久化。典型应用&#xff1a; web日志&#xff0c;日志采集hostPath&#xff1a;挂载主机文件系统中的目录或文件。pod调度到节点&#xff0c;就会占用对应节点的…