不久前,中国人工智能(AI)视频生成模型Seedance2.0发布后在全球网络迅速走红,被业界人士评价“或将彻底改变电影制作的未来”。美国多名导演和影视制作人认为,该模型能快速地以低成本生成“电影级”视频,具备“颠覆好莱坞”的潜能。虽然一些美国好莱坞工会组织指责该模型“侵权”,但有专家认为,新型科技工具“征服世界”的脚步不可阻挡。
引发业界高度关注
根据字节跳动公司的声明,其推出的Seedance2.0模型采用双分支扩散变换器架构,可根据文本或图像创建电影级视频,用户只需编写详细提示或上传一张图片,即可在60秒内生成带有原生音频的多镜头序列视频。
值得一提的是,这款模型独有的多镜头叙事功能,能根据单个提示自动生成多个相互关联的场景。它还会自动保持所有场景切换中的角色、视觉风格和氛围的一致性,无需手动编辑。
该模型面向专业影视、电商和广告等场景设计,能同时处理文本、图像、音频和视频内容,从而显著降低高质量视频内容的制作成本。
电商行业垂直搜索引擎BigGo金融频道发文说,众多业内人士评价Seedance2.0为“当前全球最强视频生成模型”;德国科技博主蒂莫西·迈克斯纳发布评测视频说,与先前以“文本生成视频”的模型不同,Seedance2.0允许用户将多种输入源以极度灵活的方式进行组合,从而实现更有针对性的内容创作。
多名美国导演和制片人在社交媒体X平台上分享了他们测试Seedance2.0的视频和感受,一场关于“颠覆好莱坞”的讨论由此展开。
美国纪录片导演查尔斯·柯伦称,他利用Seedance2.0制作的1分24秒真人电影预告片仅耗时20分钟,花费60美元,而其呈现的电影级画面特效、精准音画同步以及专业的多机位拍摄效果,“说不定真能颠覆好莱坞”。
美国企业家埃隆·马斯克在X平台上评论Seedance2.0时说:“发展得太快了。”影视业前卫创作团体“楼梯工作室”的AI影视制作负责人布雷特·斯图尔特也直言:“Seedance2.0或将彻底改变电影制作的未来。”
美国业内人士指出,Seedance2.0的发布或成为视频内容创作的转折点。在以文本生成为核心的大语言模型得到广泛应用后,专注于生成视频和图像的大模型被视为AI技术发展的下一阶段。业界此前普遍认为该领域实现突破还需两三年,但Seedance2.0的发布意味这一刻已提前来临。
技术进步大势所趋
据美国《综艺》周刊报道,美国影视演员协会-美国电视和广播艺术家联合会(SAG-AFTRA)、美国电影协会和由好莱坞各工会旗下艺术家权益组织组成的“人类艺术运动”2月中旬发声,指责Seedance2.0“侵权”。
美国迪士尼公司已于2月13日向字节跳动总法律顾问约翰·罗戈文发出要求停止“侵权”的禁止令函。信中指控字节跳动“盗用了迪士尼《星球大战》、漫威和其他迪士尼系列作品中的版权角色,仿佛迪士尼珍视的知识产权是免费的公共领域剪贴画”。值得注意的是,迪士尼公司同意将其角色授权给美国开放人工智能研究中心(OpenAI),用于其视频生成模型“天空(Sora)2”。此间舆论普遍认为,Seedance2.0的面世直接对“天空2”构成巨大挑战,甚至威胁其生存。
事实上,谷歌搜索引擎于1998年9月4日正式面世后,也曾掀起滔天巨浪。传统媒体一度坚持认为该引擎从它们身上“刮油”“吸血”,但终究无法抵挡这一新型工具“征服”整个世界。
如今,未来已来,AI带来的冲击无可避免。尤其各大AI企业对音视频生成大模型的交互推进,产品越来越成熟,Seedance2.0正是整个技术突破进程中的一个阶段性注脚。
常年驻守好莱坞采写影视新闻的资深记者朱莉娅·皮尔庞特认为,从历史角度来看,任何一场真正技术革命的到来,都会触及原有格局和利益分配,造就一个新时代。它摊薄一部分人利益,却让更多人受益,从而推动社会前行。
皮尔庞特解释说,从其产品特性来看,Seedance2.0应是使用大量好莱坞影视作品对模型本身进行了高强度训练。鉴于素材库和版权是好莱坞影视巨头的立身之本,可理解其担忧。然而从另一角度看,美国的独立影视制片公司或从业者、创作者肯定会欢迎Seedance2.0的普及,因为它可大幅降低创作门槛和成本,尤其是特效的制作成本,同时又能提高作品水准。在这个问题上,独立公司和大公司立场的对立显而易见。
皮尔庞特提醒,当年谷歌面对法律诉讼时,采取的化解思路是:说明自己只是一个创作平台和工具,而非内容提供者和创作者;如果对方起诉侵权,应起诉平台和工具的使用者,而不是平台和工具本身及其提供者。
“世界模型”是终极进化方向?
在AI领域,“世界模型”是一个经常被提及的概念。
简单来说,世界模型=让AI在脑子里“模拟整个世界”。它不是简单的“看图、生成视频”,而是让AI学会世界有什么物体、物体之间怎么互动、物理规则是什么、事情会怎么发展,然后在内部构建一个虚拟的、可推理的世界。
下一代视频模型的核心突破,将是其“世界模型”的深度和广度。这要求模型具备更强的因果推理能力,实现基于统一物理逻辑的全局一致性。
例如,当提示词描述“一阵风吹过”,模型不仅应生成树叶摇摆的画面,更应能推理出这阵风会如何影响远处的旗帜、人物的头发以及水面的波纹。这种基于统一物理逻辑的全局一致性,将是实现AI视频真正沉浸感的关键。
就像游戏引擎一样,先构建一个虚拟世界,然后在这个世界中“运行”一个事件,并用虚拟摄像机“拍摄”下来。在这个范式下,所有的物理交互、光影变化、角色行为都将是自洽且符合逻辑的。
而且,随着AppleVisionPro等空间计算设备的普及,未来的AI视频模型,其输出或将不再局限于一个平面的“画框”,而可能是一个完整的、可供用户进入和探索的3D场景。
创作者或许可以直接在3D空间中布置虚拟摄像机,规划其运动轨迹,而AI则负责实时渲染出该视角下的视频流。Seedance2.0的“导演模式”可以看做是这一方向的早期雏形。
总而言之,Seedance2.0的出现,是一个重要的行业风向标——在AI视频的下半场,单纯的生成能力不再是唯一的王牌,“可控性”和“可预测性”将成为衡量一个模型是否具备工业化潜力的核心标准。
对于创作者而言,技术正从一个难以驾驭的“创意伙伴”,转变为一个真正得心应手的“创作工具”,好的创意只会获得更大的发挥空间。据新华网等