Lightricks迄今为止,AI驱动创意技术的先驱已正式启动其最先进的生成视频模型 – LTX视频130亿参数系统或LTXV-13B。这一里程碑标志着该公司旗舰产品系列的重大升级,有望在其生态系统中具有出色的质量,无与伦比的渲染速度以及更广泛的可访问性。 LTXV-13B模型现已在公司的核心讲故事平台LTX Studio中提供,并且正在Lightricks的工具套件中集成。
LTXV-13B标志着Lightricks的一个重要技术飞跃,利用了130亿参数的体系结构,旨在解锁新的创意精度,视频保真度和性能。该模型将尖端的学术研究与开源社区的最新创新相结合,整合了诸如未采样控件和时空指导之类的先进机制,以增强视频编辑工作流程。这些增强功能已将模型定位为在快速发展的市场中为生成视频AI积极竞争。
将LTXV-13B与竞争对手区分开来的是,它能够在维持快速渲染速度的同时提供高质量的视频输出。这项表演的主要因素是Lightricks的新“多尺度渲染”建筑,这是一种受视觉艺术家和电影制片人创造性工作流程启发的渲染方法。
多尺度渲染模仿传统艺术家可能会在颜色,深度和更细节的细节上分层之前用广泛笔触绘制场景的方式。用技术术语来说,这意味着该模型最初会生成场景的快速,物理准确的基础层,然后在第二阶段应用高分辨率细节。这个迭代过程不仅增强了视觉连贯性和分辨率,而且还将延迟削减到类似大小的模型所需的一部分。根据Lightricks的说法,使用LTXV-13B的渲染时间比相当大小的竞争系统快30倍。
该公司还牢记了现实世界可访问性的模型。 LTXV-13B经过优化,可以在一系列消费级GPU上有效运行,此举通过使创作者能够在个人设备上工作而无需云规模的基础架构或专业级硬件来使AI视频生成民主。
Lightricks的联合创始人兼首席执行官Zeev Farbman说:“我们的13B参数LTX视频模型的引入标志着AI视频的关键时刻,能够在消费者GPU上生成快速,高质量的视频。” “我们的用户现在可以以更加一致性,更好的质量和更严格的控制来创建内容。这种新版本的LTX视频在消费者硬件上运行,同时又忠于使我们的所有产品不同的产品(速度,创造力和可用性)。”
为了进一步扩大其模型的功能和数据集的完整性,Lightricks与顶级媒体提供商建立了关键的战略合作伙伴关系。与 盖蒂图像,遵循类似的 与ShutterStock一致 这些联盟于2024年12月宣布。这些联盟使Lightricks可以访问大量的高级视觉内容档案,以支持其模型培训的雄心壮志,以构建不仅强大且视觉上丰富的工具,而且在道德上培训且可用于商业用途。
LTXV-13B平台现在具有更广泛的功能,可以进行更深入的创造性控制,并支持高级生产功能,例如:
- 密钥额定编辑
- 相机运动控制
- 角色和场景级运动调整
- 多拍测序和编辑
Lightricks还将LTXV-13B模型的免费许可扩展到年度收入不到1000万美元的企业,为较小的创意团队和新兴初创公司开放,以整合Advanced AI视频工具,而无需企业许可的财务障碍。同时,Lightricks承诺开放其LTXV型号,现在公开可用 拥抱脸 和 github 以ltx-video的名称。
“通过始终完善我们的模型并与开放社区合作,我们建立了一个AI系统,该系统在保持艺术控制的同时产生身体自然运动,” Lightricks LTX视频总监Yoav Hacohen。
自2024年11月最初推出以来,LTX视频一直在不断完善,并得到了学术研究人员和更广泛的开源开发人员社区的贡献。这种合作导致运动平滑度,时间一致性和整体创造性灵活性的稳定改善。
LTXV-13B中包含的一些著名开源创新包括:
- VACE模型推断 – 高级视频生成和编辑工具,包括参考电视(R2V)。详细信息 github
- 为视频编辑提高采样控件 – 反向噪声和精炼框架粒度的工具。详细信息 github。
- 内核优化 – 效率的Q8内核用法允许在低资源设备上进行性能缩放。详细信息 github 和 拥抱面。
随着LTXV-13B型号的发布,Lightricks的使命是重新定义生成AI视频中的可能性。该公司的策略(基于绩效,可访问性和协作)将其放在AI驱动的创意媒体中的新时代的最前沿。有关Lightricks开源计划和访问模型的更多信息,请访问 www.lightricks.com。