随着字节跳动下一代视频生成器的发布,大型科技公司继续超越最新AI模型。在一篇博客文章中,TikTok背后中国公司字节跳动表示,Seedance 2.0支持结合文本、图片、视频和音频的提示。
该公司声称“在生成质量上实现了显著飞跃”,在生成多主体复杂场景和执行指令的能力方面有所提升。用户可以通过向Seedance 2.0提供最多九张图片、三个视频片段和三个音频片段来细化文本提示。
该模型可以生成最多15秒的音频片段,同时考虑摄像机运动、视觉效果和运动。据字节跳动称,它还能引用基于文本的分镜。
过去一年,AI驱动的视频生成模型不断进步,Google Veo 3增加了生成支持音频的视频片段的能力,OpenAI推出了Sora 2,并推出了一款允许用户创建“超真实动态和声音”视频的新应用。人工智能初创公司Runway也发布了其AI视频模型的新版本,声称其准确度“前所未有”。
字节跳动分享的一个示例显示,两名花样滑冰选手共同表演,公司表示Seedance 2.0能够“可靠地完成一系列高难度动作——包括同步起跳、空中旋转和精准冰面着陆——同时严格遵循现实物理定律。”
社交媒体上的用户已经开始展示这款新工具的功能,有人发布了一段AI生成的视频,视频中出现了布拉德·皮特和汤姆·克鲁斯的电影式打斗场景。《死侍》编剧雷特·里斯转发了视频,并评论道:“我不想这么说。我们可能已经结束了。”
其他帖子展示了Seedance 2.0生成动漫风格片段、动画、电影科幻场景和看起来像内容创作者制作的视频的能力。目前尚不清楚Seedance 2.0是否提供版权保护,因为在X上快速搜索会发现大量包含《龙珠Z》、《恶搞之家》、《宝可梦》等角色的片段。
目前,Seedance 2.0仅通过字节跳动的Dreamina AI平台及其AI助手豆宝提供。目前尚不清楚它是否会登陆TikTok——尤其是在该应用在美国换了新所有权之后。
