Aquila-VL-2B是一个先进的视觉语言模型,旨在通过强大的图像理解与文本生成能力,推动多模态AI的发展。该模型基于LLava-one-vision框架,结合了Qwen2.5-1.5B指令模型和siglip-so400m-patch14-384视觉塔,经过精心设计的Infinity-MM数据集进行训练,展现了卓越的性能。
使用Aquila-VL-2B非常简单。用户只需安装相关库,加载预训练模型,并通过图像输入和文本问题进行交互。模型将返回对输入图像的理解与生成的文本描述,适用于各种多模态任务。
Aquila-VL-2B模型及相关资源均已开源,用户可免费使用和研究,具体价格信息请查看官方文档。
BAAI(北京智源人工智能研究院)
Twitter:@BAAI_Institute,Instagram:@baai_institute