字节跳动推出豆包·视频生成模型:加速AI技术商业落地
豆包·视频生成模型亮相
近日,在2024火山引擎AI创新巡展深圳站上,字节跳动发布了其首款AI视频生成模型——豆包·视频生成模型。这款模型基于全新的DiT扩散模型架构,能够精准理解复杂的提示词,实现多个主体间的复杂互动,并保持多镜头切换内容的一致性。此外,它还能生成具有高保真度和美感的影视级视频,适用于电商营销、城市文旅、动画教育和微短剧等多种场景。
展示效果惊艳
发布会现场展示了几个视频案例,其中包括一段“童话王国”的视频,画面中的花团锦簇、门窗和灯光都清晰可见,桥上和房子后的动物动作栩栩如生。另一段展示了羊群奔跑的场景,腿部动作和奔跑状态极为逼真,黑羊穿过乌云向前奔跑的画面令人印象深刻。最后展示了一组多尺寸高清视频,包括一个AI生成的“口红”广告,鲜艳的口红让人产生强烈的购买欲望。
技术迭代迅速
豆包大模型在不到半年的时间内实现了六款模型的发布和能力升级,包括豆包·视频生成模型、豆包·同声传译模型、豆包·音乐模型等。此外,还有升级版本的豆包通用模型pro、豆包·语音合成模型和豆包·文生图模型。这些升级表明火山引擎正在加速豆包大模型的产品和方案落地。
商业化竞争加剧
随着大模型技术的快速迭代,技术可用性大幅提升,已具备文本、语音、视觉等多种模态能力,并能完成复杂指令。当前,生成式AI技术竞赛已进入“下半场”,商业化成为各AI公司的必争之地。《生成式AI商业落地白皮书》显示,已有53%的中国企业开始有组织地进行生成式AI布局,这表明许多企业已经意识到生成式AI技术对其发展的重要性,并将投入资源和精力推动其应用和发展。
本文转载自互联网,若有侵权,请联系站长说明,禁止转载。
本文链接: https://www.xiezha.com/question/bc8e9d7478ea47feaf7fd29f92cb0d25.html