视觉语言模型详解

字节逐风鹤
• 阅读 297

视觉语言模型可以同时从图像和文本中学习,因此可用于视觉问答、图像描述等多种任务。本文,我们将带大家一览视觉语言模型领域: 作个概述、了解其工作原理、搞清楚如何找到真命天“模”、如何对其进行推理以及如何使用最新版的 trl 轻松对其进行微调。

什么是视觉语言模型?

视觉语言模型是可以同时从图像和文本中学习的多模态模型,其属于生成模型,输入为图像和文本,输出为文本。大视觉语言模型具有良好的零样本能力,泛化能力良好,并且可以处理包括文档、网页等在内的多种类型的图像。其拥有广泛的应用,包括基于图像的聊天、根据指令的图像识别、视觉问答、文档理解、图像描述等。一些视觉语言模型还可以捕获图像中的空间信息,当提示要求其检测或分割特定目标时,这些模型可以输出边界框或分割掩模,有些模型还可以定位不同的目标或回答其相对或绝对位置相关的问题。现有的大视觉语言模型在训练数据、图像编码方式等方面采用的方法很多样,因而其能力差异也很大。

视觉语言模型详解

开源视觉语言模型概述

Hugging Face Hub 上有很多开放视觉语言模型,下表列出了其中一些佼佼者。

  • 其中有基础模型,也有可用于对话场景的针对聊天微调的模型。
  • 其中一些模型具有“接地 (grounding )”功能,因此能够减少模型幻觉。
  • 除非另有说明,所有模型的训练语言皆为英语。
模型可否商用模型尺寸图像分辨率其它能力
LLaVA 1.6 (Hermes 34B)34B672x672
deepseek-vl-7b-base7B384x384
DeepSeek-VL-Chat7B384x384聊天
moondream2~2B378x378
CogVLM-base17B490x490
CogVLM-Chat17B490x490接地、聊天
Fuyu-8B8B300x300图像中的文本检测
KOSMOS-2~2B224x224接地、零样本目标检测
Qwen-VL4B448x448零样本目标检测
Qwen-VL-Chat4B448x448聊天
Yi-VL-34B34B448x448双语 (英文、中文)

寻找合适的视觉语言模型

有多种途径可帮助你选择最适合自己的模型。

视觉竞技场 (Vision Arena) 是一个完全基于模型输出进行匿名投票的排行榜,其排名会不断刷新。在该竞技场上,用户输入图像和提示,会有两个匿名的不同的模型为其生成输出,然后用户可以基于他们的喜好选择一个输出。这种方式生成的排名完全是基于人类的喜好的。

视觉语言模型详解

开放 VLM 排行榜 提供了另一种选择,各种视觉语言模型按照所有指标的平均分进行排名。你还可以按照模型尺寸、私有或开源许可证来筛选模型,并按照自己选定的指标进行排名。

视觉语言模型详解

VLMEvalKit 是一个工具包,用于在视觉语言模型上运行基准测试,开放 VLM 排行榜就是基于该工具包的。

还有一个评估套件是 LMMS-Eval,其提供了一个标准命令行界面,你可以使用 Hugging Face Hub 上托管的数据集来对选定的 Hugging Face 模型进行评估,如下所示:

accelerate launch --num_processes=8 -m lmms_eval --model llava --model_args pretrained="liuhaotian/llava-v1.5-7b" --tasks mme,mmbench_en --batch_size 1 --log_samples --log_samples_suffix llava_v1.5_mme_mmbenchen --output_path ./logs/

视觉竞技场和开放 VLM 排行榜都仅限于提交给它们的模型,且需要更新才能添加新模型。如果你想查找其他模型,可以在 image-text-to-text 任务下浏览 hub 中的 模型

在排行榜中,你会看到各种不同的用于评估视觉语言模型的基准,下面我们选择其中几个介绍一下。

MMMU

针对专家型 AGI 的海量、多学科、多模态理解与推理基准 (A Massive Multi-discipline Multimodal Understanding and Reasoning Benchmark for Expert AGI,MMMU) 是评估视觉语言模型的最全面的基准。它包含 11.5K 个多模态问题,这些问题需要大学水平的学科知识以及跨学科 (如艺术和工程) 推理能力。

MMBench

MMBench 由涵盖超过 20 种不同技能的 3000 道单选题组成,包括 OCR、目标定位等。论文还介绍了一种名为 CircularEval 的评估策略,其每轮都会对问题的选项进行不同的组合及洗牌,并期望模型每轮都能给出正确答案。

另外,针对不同的应用领域还有其他更有针对性的基准,如 MathVista (视觉数学推理) 、AI2D (图表理解) 、ScienceQA (科学问答) 以及 OCRBench (文档理解)。

技术细节

对视觉语言模型进行预训练的方法很多。主要技巧是统一图像和文本表征以将其输入给文本解码器用于文本生成。最常见且表现最好的模型通常由图像编码器、用于对齐图像和文本表征的嵌入投影子模型 (通常是一个稠密神经网络) 以及文本解码器按序堆叠而成。至于训练部分,不同的模型采用的方法也各不相同。

例如,LLaVA 由 CLIP 图像编码器、多模态投影子模型和 Vicuna 文本解码器组合而成。作者将包含图像和描述文本的数据集输入 GPT-4,让其描述文本和图像生成相关的问题。作者冻结了图像编码器和文本解码器,仅通过给模型馈送图像与问题并将模型输出与描述文本进行比较来训练多模态投影子模型,从而达到对齐图像和文本特征的目的。在对投影子模型预训练之后,作者把图像编码器继续保持在冻结状态,解冻文本解码器,然后继续对解码器和投影子模型进行训练。这种预训练加微调的方法是训练视觉语言模型最常见的做法。

视觉语言模型详解

视觉语言模型详解

再举一个 KOSMOS-2 的例子,作者选择了端到端地对模型进行完全训练的方法,这种方法与 LLaVA 式的预训练方法相比,计算上昂贵不少。预训练完成后,作者还要用纯语言指令对模型进行微调以对齐。还有一种做法,Fuyu-8B 甚至都没有图像编码器,直接把图像块馈送到投影子模型,然后将其输出与文本序列直接串接送给自回归解码器。

大多数时候,我们不需要预训练视觉语言模型,仅需使用现有的模型进行推理,抑或是根据自己的场景对其进行微调。下面,我们介绍如何在 transformers 中使用这些模型,以及如何使用 SFTTrainer 对它们进行微调。

在 transformers 中使用视觉语言模型

你可以使用 LlavaNext 模型对 Llava 进行推理,如下所示。

首先,我们初始化模型和数据处理器。

from transformers import LlavaNextProcessor, LlavaNextForConditionalGeneration
import torch

device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
processor = LlavaNextProcessor.from_pretrained("llava-hf/llava-v1.6-mistral-7b-hf")
model = LlavaNextForConditionalGeneration.from_pretrained(
    "llava-hf/llava-v1.6-mistral-7b-hf",
    torch_dtype=torch.float16,
    low_cpu_mem_usage=True
)
model.to(device)

现在,将图像和文本提示传给数据处理器,然后将处理后的输入传给 generate 方法。请注意,每个模型都有自己的提示模板,请务必根据模型选用正确的模板,以避免性能下降。

from PIL import Image
import requests

url = "https://github.com/haotian-liu/LLaVA/blob/1a91fc274d7c35a9b50b3cb29c4247ae5837ce39/images/llava_v1_5_radar.jpg?raw=true"
image = Image.open(requests.get(url, stream=True).raw)
prompt = "[INST] <image>\nWhat is shown in this image? [/INST]"

inputs = processor(prompt, image, return_tensors="pt").to(device)
output = model.generate(**inputs, max_new_tokens=100)

调用 decode 对输出词元进行解码。

print(processor.decode(output[0], skip_special_tokens=True))

使用 TRL 微调视觉语言模型

我们很高兴地宣布,作为一个实验性功能,TRLSFTTrainer 现已支持视觉语言模型!这里,我们给出了一个例子,以展示如何在 llava-instruct 数据集上进行 SFT,该数据集包含 260k 个图像对话对。

llava-instruct 数据集将用户与助理之间的交互组织成消息序列的格式,且每个消息序列皆与用户问题所指的图像配对。

要用上 VLM 训练的功能,你必须使用 pip install -U trl 安装最新版本的 TRL。你可在 此处 找到完整的示例脚本。

from trl.commands.cli_utils import SftScriptArguments, TrlParser

parser = TrlParser((SftScriptArguments, TrainingArguments))
args, training_args = parser.parse_args_and_config()

初始化聊天模板以进行指令微调。

LLAVA_CHAT_TEMPLATE = """A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. {% for message in messages %}{% if message['role'] == 'user' %}USER: {% else %}ASSISTANT: {% endif %}{% for item in message['content'] %}{% if item['type'] == 'text' %}{{ item['text'] }}{% elif item['type'] == 'image' %}<image>{% endif %}{% endfor %}{% if message['role'] == 'user' %} {% else %}{{eos_token}}{% endif %}{% endfor %}"""

现在,初始化模型和分词器。

from transformers import AutoTokenizer, AutoProcessor, TrainingArguments, LlavaForConditionalGeneration
import torch

model_id = "llava-hf/llava-1.5-7b-hf"
tokenizer = AutoTokenizer.from_pretrained(model_id)
tokenizer.chat_template = LLAVA_CHAT_TEMPLATE
processor = AutoProcessor.from_pretrained(model_id)
processor.tokenizer = tokenizer

model = LlavaForConditionalGeneration.from_pretrained(model_id, torch_dtype=torch.float16)

建一个数据整理器来组合文本和图像对。

class LLavaDataCollator:
    def __init__(self, processor):
        self.processor = processor

    def __call__(self, examples):
        texts = []
        images = []
        for example in examples:
            messages = example["messages"]
            text = self.processor.tokenizer.apply_chat_template(
                messages, tokenize=False, add_generation_prompt=False
            )
            texts.append(text)
            images.append(example["images"][0])

        batch = self.processor(texts, images, return_tensors="pt", padding=True)

        labels = batch["input_ids"].clone()
        if self.processor.tokenizer.pad_token_id is not None:
            labels[labels == self.processor.tokenizer.pad_token_id] = -100
        batch["labels"] = labels

        return batch

data_collator = LLavaDataCollator(processor)

加载数据集。

from datasets import load_dataset

raw_datasets = load_dataset("HuggingFaceH4/llava-instruct-mix-vsft")
train_dataset = raw_datasets["train"]
eval_dataset = raw_datasets["test"]

初始化 SFTTrainer ,传入模型、数据子集、PEFT 配置以及数据整理器,然后调用 train() 。要将最终 checkpoint 推送到 Hub,需调用 push_to_hub()

from trl import SFTTrainer

trainer = SFTTrainer(
    model=model,
    args=training_args,
    train_dataset=train_dataset,
    eval_dataset=eval_dataset,
    dataset_text_field="text", # need a dummy field
    tokenizer=tokenizer,
    data_collator=data_collator,
    dataset_kwargs={"skip_prepare_dataset": True},
)

trainer.train()

保存模型并推送到 Hugging Face Hub。

trainer.save_model(training_args.output_dir)
trainer.push_to_hub()

你可在 此处 找到训得的模型。你也可以通过下面的页面试玩一下我们训得的模型⬇️。

视觉语言模型详解

致谢

我们感谢 Pedro Cuenca、Lewis Tunstall、Kashif Rasul 和 Omar Sanseviero 对本文的评论和建议。


英文原文: https://hf.co/blog/vlms
原文作者: Merve Noyan,Edward Beeching
译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的应用及大规模模型的训练推理。
点赞
收藏
评论区
推荐文章
Wesley13 Wesley13
3年前
CSCNN:新一代京东电商广告排序模型
导读:随着电商平台对图像信息的大量引入,通过图像分析来进行广告点击率判断就成了新的趋势。本次分享的主题为CSCNN:新一代京东电商广告排序模型,主要介绍视觉信息在CTR排序模型中的应用。一方面,我们将介绍在工业场景下使用CNN将图像加入CTR模型联合建模的方法;另一方面,我们指出传统用于分类任务的CNN并不适合电商场景。将电商场景中丰富的、具有强视觉先验的"
Stella981 Stella981
3年前
LayoutLM——文本与布局的预训练用于文档图像理解
摘要:预训练技术近年来在多种NPL任务中取得了广泛的成功。尽管广泛的NPL应用的预训练模型,其大多聚焦于文本级别的操作,而忽略了布局与风格信息,这对文档图像的理解至关重要。该篇论文提出了LayoutLM来联合建模扫描文档图像的文本与布局信息关系,这将有益于真实世界中大量的图像理解任务,如文档图像的信息提取。此外,可以利用图像特征合并文字的视觉信息到
Stella981 Stella981
3年前
Halcon和Opencv区别
Halcon:机器视觉行业里知名的商业视觉库,非开源的,在国内市场份额处于第一,其提供了1500个多个API算子供开发人员使用,有些编程基础的都可以轻松的入门,其调试也是很方便的,断点单步运行,图像变化随时可以看到。Halcon算子可以被C,VB,C,Delphi等开发语言调用,同时算子也提供COM版,原则上,支持COM的所有语言都是可以调用H
Stella981 Stella981
3年前
Duang,HUAWEI DevEco IDE全面升级啦
想感受全新UI带来的视觉及交互体验、HiKey970开发板调测、HiAIAPI推荐和收藏、深度AI模型分析等新功能,体验高清晰度和流畅度的远程AI真机调测吗?!(https://oscimg.oschina.net/oscnet/f4e1bb24ff00b8c6ea27f75370a53bfbacd.jpg)全新的UI设计
Wesley13 Wesley13
3年前
4项探索+4项实践,带你了解华为云视觉预训练研发技术
摘要:本文主要讲述云原生时代华为云在AI基础研究、视觉预训练模型研发和行业实践,以及AI开发平台ModelArts的最新进展。近日,在Qcon全球软件开发大会(深圳站)上,华为云人工智能领域首席科学家、IEEEFELLOW田奇博士,发表了“云原生时代,视觉预训练大模型探索与实践”的主题演讲,介绍了云原生时代华为云在AI基础研究、视觉预训练模
直播预告丨大模型+Agents疏通京东金融运营堵点
大模型时代,“应用变了”:把大模型装进金融营销分几步?11月24日(周五)14:0015:00开播!数字化打破信息孤岛,也建立更多孤岛运营人员被困在自己的环节里十余个子系统、子模块如何整合?自然语言任务中的“幻觉”如何克服?如何将AI训练成业务运营高手?京
胡赤儿 胡赤儿
1年前
生成对抗网络(GANs):深度学习与计算机视觉的革新力量
随着深度学习的迅速发展,生成对抗网络(GANs)作为一种强大的生成模型,正逐步改变着计算机视觉、自然语言处理以及诸多相关领域的研究与应用格局。GANs以其独特的对抗性训练机制,成功地在数据生成、图像修复、风格迁移等任务中展现了出色的性能。本文将深入探讨GA
CBAM注意力模型介绍
近年来,注意力机制在各项深度学习任务中表现出色。研究表明,人类视觉感知过程中,注意力机制发挥了积极的效果,可以帮助人们高效和自适应的处理视觉信息并聚焦于显著的画面区域,从而能够做出最准确的判断。因此,通过模拟视觉注意力机制,在网络结构中加入注意力模块,使模型可以更加关注待分类图像中的关键信息,抑制不相关的特征信息,促使模型对重要的特征区域更加敏感,从而有效提升相关任务的性能。本文简要介绍一种经典的混合注意力模型CBAM。