LLaVA:与GPT-4V相媲美的多模态模型

新知榜官方账号

2023-10-12 01:24:36

LLaVA:与GPT-4V相媲美的多模态模型

LLaVA是一款多模态模型,能够在图像识别、文本对齐、视觉指令等方面表现出色。其综合能力已经达到了GPT-4V水平的85%,在复杂推理任务上更是超过了96%。LLaVA的样本量仅为120万,在单台8*A100的机器上,1天就能完成训练。LLaVA的语言模型是羊驼家族的Vicuna,视觉模型则采用了OpenAI的CLIP,并以MLP作为模态连接器。研究团队在开发过程中还使用了ScienceQA数据集,以让LLaVA能够识别更多专业领域的内容。

LLaVA的训练分为两个阶段。首先是将文本与图像对齐的预训练过程,这一阶段一共使用了60万对图像-文本信息。第二阶段则是在对齐的基础上使用视觉指令进行调优,让LLaVA熟悉用户可能问到的各种问题。开发者提供的数据显示,LLaVA在11个测试数据集上都成为了SOTA,在GitHub上更是斩获6k+星标。

LLaVA不仅能够识别人物、医学影像等图像内容,还能够进行文字识别。此外,LLaVA还能够解读表情包。虽然LLaVA与GPT-4V在识别技能上存在差距,但也是能用的水平了。

LLaVA的代码、模型和训练数据都已经开源,有7B和13B两个参数量的模型,LoRA版本也将很快发布。LLaVA的相关论文的第一作者是威斯康星大学麦迪逊分校的华人博士生HaotianLiu,他还是一名浙大竺院校友。研究团队来自微软研究院、哥伦比亚大学等机构。

项目主页(内含DEMO及GitHub、HuggingFace链接):https://llava-vl.github.io/

论文地址:
[1]https://arxiv.org/abs/2304.08485
[2]https://arxiv.org/abs/2310.03744

本页网址:https://www.xinzhibang.net/article_detail-16417.html

寻求报道,请 点击这里 微信扫码咨询

关键词

LLaVA GPT-4V 多模态模型 图像识别 文本对齐 视觉指令

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯