AI文生视频效果“炸裂”,未来扔一部小说出一部大片?

发布时间:2024-12-23 01:22:00 来源: sp20241223

   中新网 2月19日电(中新财经记者 吴涛 吴家驹)扔进去一段文字,分分钟生成“大片”级别的视频内容?近日,OpenAI发布首个视频生成模型Sora,随即引发关注。

  在短视频流行的今天,这意味着什么?又将带来哪些影响?

  图自OpenAI网站

  AI生成视频效果“炸裂”

  几只巨大的毛茸茸的猛犸象踏着白雪皑皑的草地走近、一个毛茸茸的小怪物跪在融化的红蜡烛旁边、女子在街头漫步……OpenAI称,这些几乎可以乱真视频均由Sora直接生成,未经修改。

  根据OpenAI的官方简介,Sora可以制作长达60秒的视频,视频包括高清晰度的场景、复杂的镜头动作,并可支持多个角色的创作。

  OpenAI称,该模型不仅能理解用户在提示中提出的要求,还能理解这些事物在物理世界中是如何存在的。

  Sora目前暂未对外开放使用,但对于已公开视频的“炸裂”效果,不少网友给出好评,同时不忘模仿一些“大厂”的口吻进行调侃:我们早就布局,(内心希望Sora赶紧开源)。

  很多网友也充满期待:“我想看一下什么才是真正的万剑归宗!”“我想看微观的蚂蚁洞穴到底长什么样!”

  图自OpenAI网站

  扔一部小说出一部大片?

  除了生成的画面更接近现实物理世界,OpenAI介绍,Sora可以实现视频中的主题始终保持一致,即使暂时离开视野也不会发生变化,并可以一次性生成多机位视频。

  基于这样的技术,已有网友设想,用多个1分钟视频连接起来生产一部微短剧甚至电影,同时保证其主题不变。“扔一部小说出一部大片”将成为现实。

  国盛证券17日发布的研报显示,Sora相比此前其他文生视频模型,已经跨越到实用生产力工具,1分钟长度有望大规模应用在短视频领域,扩展视频的能力也有望制作长视频。

  360创始人、董事长周鸿祎近日公开对此表示,这意味着AGI(人工通用智能)实现将从10年缩短到1年。

  当然,Sora也并非毫无弱点。OpenAI称,它可能难以准确模拟复杂场景的物理原理,并且可能无法理解因果关系的具体实例。例如,一个人咬了一口饼干,但之后饼干可能没有咬痕。

  此外,该模型还可能混淆提示的空间细节,例如混淆左右,并且可能难以精确描述随着时间推移发生的事件,例如遵循特定的相机轨迹。

  图自OpenAI网站

  一夜“干翻”影视拍摄和剪辑?

  但另一方面,担忧的声音也在网络占有一席之地。

  分分钟生成媲美“大片”的视觉质量,视频拍摄者和剪辑人员是否已显得“多余”?以后演员会不会消失?是不是可以喜欢谁让谁来当主演?

  类似“开脑洞”的想法,或许已经离现实不远。

  有观点认为,Sora有可能一夜“干翻”视频剪辑和拍摄人员,以后要比拼谁的创意好。有证券公司研报就称,这是文生视频的里程碑事件,有可能带来内容创作产业革命。

  清华大学新闻与传播学院教授沈阳接受中新财经记者采访时称,Sora对影视相关的产业影响比较大,它能大幅拉低制作成本,如果普遍使用的话,成本至少可以是原来的十分之一,所以Sora对视频、游戏、教育等行业都会带来比较明显的影响。

  DCCI互联网研究院院长刘兴亮认为,传统影视制作流程和商业模式,也可能被迫转型。但他同时指出,这是一个与AI携手共舞的机会,探索新的艺术形式和表达方式,续写影视行业的辉煌。

  刘兴亮表示,Sora是给内容创作者的超级大礼包,不仅可以降低成本、加速创作,还能让观众的视觉体验丰富到爆表。AI未来的画卷,将比我们想象的还要精彩。

  周鸿祎则认为,AI不一定那么快颠覆所有行业,但它能激发更多人的创作力。

  图自OpenAI网站

  如何应对AI可能带来的风险?

  此外,也有声音认为,这一新技术可能会带来一系列风险乃至社会问题。

  刘兴亮指出,AI内容制作,让现实与虚拟的界线变得模糊。内容真实性、版权、隐私、数据、安全等问题纷至沓来。社会需要一套完善的政策、法律和伦理规范来应对,确保技术发展不脱轨,保护每个人的利益。

  对此,OpenAI称,在将Sora应用于OpenAI的产品之前,将采取几个重要的安全措施。相关领域专家将对模型进行对抗性测试。公司还在开发一些工具来帮助检测误导性内容,例如检测分类器,它可以分辨出视频是由Sora生成的。

  OpenAI还称,将与世界各地的政策制定者、教育工作者和艺术家接触,以了解他们的担忧,并确定这项新技术的积极应用案例。尽管进行了广泛的研究和测试,但公司无法预测所有人们使用公司技术的有益方式,也无法预测所有人们滥用技术的方式。

  值得注意的是,OpenAI去年就曾发布公告,宣布启动全球招募“红队”网络成员,旨在引入外部力量,提前挖掘出AI系统存在的缺陷和风险。

  而在此之前,已有相关领域专家呼吁,国际社会应共同推进人工智能监管,以确保其安全性。

  2023年11月,包括中国、美国、英国和欧盟在内的28个国家和地区,在首届人工智能安全峰会上签署《布莱奇利宣言》,同意协力打造一个“具有国际包容性”的前沿人工智能安全科学研究网络,以对尚未被完全了解的人工智能风险和能力加深理解。(完)

【编辑:黄钰涵】