Meta的论文地址:https://ai.meta.com/static-resource/image-decoding
图源:新抖
LLaVA在视觉聊天和推理问答方面表现出接近GPT-4水平的能力。在视觉聊天方面,LLaVA的表现相对于GPT-4的评分达到了85%,在推理问答方面更是达到了92.53%的超过GPT-4的新SoTA。LLaVA在回答问题时,能够全面而有逻辑地生成回答,并且可以以JSON格式输出。
目前,已有超过400家企业启动了鸿蒙原生应用开发,覆盖了导航、新闻、工具、旅游、金融、便捷生活、美食、游戏等多个品类。
据悉,M2UGen采用了创新的方法,生成了大规模的多模态音乐指导数据集,用于训练模型。这包括MU-LLaMA模型生成的1.2k多小时音乐字幕数据集。模型结合了MU-LLaMA、BLIP图像字幕模型、MPT-7B-Chat模型以及VideoMAE字幕模型,以在各个领域生成对应的指导。