seedance 2.0 完成电影级预告片

好莱坞导演查尔斯·柯兰承认,Seedance 2.0只用20分钟、花几十块钱就完成了一部电影级预告片,它的颠覆性潜力已显露无疑。马斯克也在X平台感慨模型发展速度太快,引发了海外社交圈的广泛关注。Tim在视频里连着说了6次“恐怖”,把Seedance 2.0比作“即将改变视频行业的AI”,那个标题起得太吓人。 2月12日,字节跳动正式把新一代视频生成模型Seedance 2.0给全量上线了。虽然这个模型还不支持上传真人照片当主体参考,但它已经开始让界面新闻注意到了。通过电脑端、网页版和即梦AI这几个渠道,用户能把这个模型接入豆包App里。 你可以在对话框里选择“Seedance 2.0”的入口,输几句话,就能立刻让模型生成5秒或10秒的视频。为了验证身份,你还能创建一个自己的视频分身。在运动场景下,Seedance 2.0的生成率已经达到了业界顶尖水平(SOTA)。它的人物动作非常自然连贯,符合现实世界的运动规律。 这个模型会像真正的导演一样设计分镜,让镜头的变换和故事情节很契合。只要输入一段提示词和参考图,它就能把完整的原声音轨给合成出来。无论是大场面运镜还是物理效果的一致性,它都能像实拍一样展现细节。它能把文字、图片、音频、视频这四种模态混合起来使用。 过去两天里,Tim发布的那个测试视频在B站上播放量直接冲到了300万。潘天鸿在视频里反复提到音画同步和原生生成的厉害之处。特斯拉的CEO埃隆·马斯克看到Seedance 2.0的消息后也转发了评论。查尔斯·柯兰用了20分钟和几十美元就做出了电影级的预告片,他觉得这将重构好莱坞的创作流程和成本结构。 Seedance 2.0能高保真地合成时序精密的复杂交互场景。它支持背景音乐、环境音效或人物解说等音频多轨并行输出。模型可以自动解析叙事逻辑,让生成的镜头在角色、光影、风格与氛围上保持统一。 界面新闻记者宋佳楠获得的消息是:2月12日那天,备受关注的字节跳动旗下豆包新一代视频生成模型Seedance 2.0全量上线了。Seedance 2.0支持原声音画同步、多镜头长叙事、多模态可控生成等功能。Tim在B站发布的视频主要围绕大范围运镜与物理一致性、分镜与叙事连续性以及音画同步与原生生成等方面进行了测试。