发布时间:2024-11-01 18:53:13 来源: sp20241101
史蒂夫·比蒂:
世界因AI真假难辨,不应轻易作判断
推出ChatGPT(人工智能聊天机器人)一年多后,美国人工智能公司“开放人工智能研究中心”(OpenAI)宣告将推出视频生成模型Sora。根据OpenAI的介绍,Sora可以根据文本指令制作长达60秒的视频,其中包括“详细的场景、复杂的镜头运动和多个充满活力的角色”。这是OpenAI首次进军人工智能视频生成领域。
近日,新京报记者对话美国密歇根州立大学丹佛分校计算机科学系主任史蒂夫·比蒂(Steve Beaty)。谈及Sora的诞生,比蒂认为,Sora增加了图像的真实感,可以在场景之间平滑过渡,是一个非常引人注目的产品。
针对外界对人工智能技术将进一步模糊真假界限,甚至造成深度伪造的担忧,比蒂指出,这就像打开一个“潘多拉盒子”,得到了人工智能技术,其他潜在风险也随之出现。面对一个难辨真假的世界,公众不应轻易对网络信息作出判断,须依赖常识找到多个信源。另外,问题的根源中也有解决问题的方法,人们可以利用人工智能来检测信息是否由人工智能生成。
“Sora或不会对视频生产行业产生太大影响”
新京报:人工智能公司OpenAI公布了一种新的人工智能系统Sora,该系统可以根据用户的文本提示创建高质量逼真的视频。Sora并不是首个类似产品,谷歌、Meta等公司都有类似技术。与它们相比,Sora突出的特点有哪些?
比蒂:Sora明显提高了(生成视频内容的)标准,增加了保真度,提高了像素。OpenAI还有其他产品,例如DALL-E3,但这仍针对的是图片。Sora增加了图像的真实感,在场景之间平滑过渡,这些都在Sora中得到了实现。我们在研究之后会发现,Sora是个非常引人注目的产品。
新京报:如何看待Sora给视频生产行业带来的机遇和挑战?
比蒂:最明显的一点是,现在可以创作出在10年、20年前不可能完成的电影。我们对想要的电影画面进行描述,然后Sora可以帮助呈现。我虽然不是视频生产行业的专家,然而我想强调的是,许多观众主要关注的都是故事情节,而我不认为Sora背后的技术将会对故事情节产生多大影响。
我们确实看到了这项技术基于故事情节对图像创作能力的影响,但绝大多数引人注目的图片、电影以及视频都是基于某个人撰写的故事情节,我们相信这些情节并与之共情,让自己沉浸其中。
我不认为自己能写出一个足以转换成视频的好故事。如果其他有创造力的人,撰写了这些引人入胜的故事,并通过Sora或其他技术表达出来,也许这是件好事,即便没有数百万美元身家,他们也有能力创造性地表达自己。
例如当我们观看电影的时候,重点永远是故事情节而不是特效。现在我们可以把视频做成任何我们想要的样子,行业里也早就有了绿幕以及其他背景特效,但如果这不是一个好故事,那么没人会在意其余这些。
“目前人工智能监管工作只触及了表面”
新京报:如何评价目前全球对于人工智能使用的监管水平?接下来还需要做哪些工作?
比蒂:在人工智能监管方面的工作,我们只触及了表面。根据我的经验,技术总是领先于监管。任何一种技术,包括电视、电话甚至医疗技术,都是技术先行,随后监管才跟上脚步。在人工智能领域,我们也在经历一模一样的事。无论是从国家层面还是州层面,他们都不太知道应该如何监管一种全新的技术。
例如,美国《通信规范法》第230条款中规定服务提供者(脸书、图片墙等)对第三方在平台上发布的内容不负责,他们只是提供这些内容。现在来看,这是否依然合适?尤其是在(法案颁布)二三十年后,恐怕这些内容不太适用当今语境。我认为如今的监管至少落后了十到二十年。
我参加了科罗拉多州一个立法特别工作组,试图弄清楚深度伪造、面部识别以及其他技术的意义和影响,但我们的确远远落后了,我们所能做的就是尽最大努力制定一套合理的法规,与此同时教育民众,让他们知道这项技术的能力,即便它目前还没有受到全面监管。
这是我们在很大程度上一直讨论的问题,即内容是有意义、合理的吗?我是否可以在美国取笑一个公众人物,答案是肯定的,这种情况经常发生。那么我是否可以在选举季制作一个公众人物视频,让他或她在里面说一些他们本没有说的话,我想答案是否定的。我们有能力做许多我们并不应该做的事情,需要对技术做出有意义的平衡。接下来问题就变成了,我们如何确保任何技术被用于善,而不是恶。
新京报记者 栾若曦 刘婧瑜 【编辑:房家梁】