No menu items!

    号称「家用显卡都能跑AI」超越Sora的阿里万相大模型开源

    超越Sora的阿里万相大模型开源,号称「家用显卡都能跑AI」,图为阿里巴巴杭州总部。(取材自阿里巴巴官网)

    阿里云旗下影片和图像生成模型「通义万相2.1」(Wan)开源,号称「家用显卡都能跑AI」,代表顶级前沿模型的开源浪潮,涌向由AI驱动的影片创作领域,也代表本周全球AI大混战升温。

    权威评测榜单VBench显示,万相2.1以总分86.22%的成绩大幅超越Sora、Luma、Pika等国内外模型,稳居榜首位置。

    财联社报导,美国Anthropic公司24日发布首个混合推理模型Claude 3.7 Sonnet。与此同时,DeepSeek也在持续开源5个代码库,赶忙上架「最强大模型」的xAI,将推出一系列应用层面的优化;美国科技巨头亚马逊也已经定档26日,将给语音助手Alexa带来「AI升级」。坊间也有传言称,OpenAI可能会在本周推出GPT-4.5。

    根据通义介绍,此次开源的是2个版本的模型:14B版本适用于专业创作者迅速上手部署,而1.3B参数量的版本在家用显卡,例如辉达4090上用单卡8.2G显存,就能生成480P高品质影片。性能甚至能与某些5B参数量的闭源大模型相媲美。

    受消息影响,阿里巴巴美股盘中异动拉升,带动中概股集体走强。

    分析认为,万相2.1主动开源,而且是全部推理代码和权重全部开源,代表影片生成模型赛道将更加活跃,竞争和反复运算也会变得更加激烈;对消费者以及内容产业的从业者而言,生产力跃升的速度也会变得更快、成本和使用门槛将快速降低。

    例如,OpenAI终于在去年底发布Sora产品,面向每月缴纳20/200美元的订阅用户。同时由于算力不足,暂时没有推出API(应用程序开发接口)的计划;谷歌Veo 2模型则在近期披露定价,每生成1秒影片需要付费0.5美元,相当于生成1个小时的影片,需要花费1800美元。

    万相2.1的技术突破主要体现在2点,首先是能够展现复杂稳定的人物肢体动作,以及精准还原碰撞、反弹等复杂物理场景。这决定了AI生成的影片是否有足够真实性。

    另一个巨大的优势,是万相2.1能够直接通过提示,可以在影片中生成中英文本及特殊艺术效果。随着这个模型的开源,中文AI应用市场又将迎来一波新玩法的升级。

    通义万相于2023年7月7日上线,去年9月19日的阿里云栖大会上,发布通义万相影片生成大模型。

    热点

    发表评论