OpenAI Sora:对现实的挑战
人工智能公司似乎确实在竞相制造我们集体的在线虚假信息问题终端。
众所周知,网络虚假信息是一个巨大的问题——这个问题可以说撕裂了社区,操纵了选举,并导致全球某些群体失去了理智。当然,似乎没有人特别关心如何真正解决这个问题。事实上,最负责任于网络虚假信息(因此,也是最有能力采取措施解决问题的机构)的科技公司似乎正竭尽全力让这个问题变得更加恶化。
案例一:OpenAI于星期四推出了其新的文本到视频生成器Sora。该模型旨在允许网络用户仅通过文本提示生成高质量的人工智能视频。该应用目前正在以其各种奇异的视觉图像令互联网惊叹不已——无论是中国新年游行、一个人在黑暗中向后跑步、床上的猫,还是两艘海盗船在咖啡杯中盘旋。
尽管OpenAI声称其“改变世界”的使命,但可以说,该公司对互联网最大的贡献是瞬间生成了无数太字节的数字垃圾。该公司开放和公开的所有工具都是内容生成器,专家们警告说,这些工具很可能会被用于欺诈和虚假信息活动。
在关于Sora的博客文章中,OpenAI的团队公开承认了他们的新应用可能存在一些潜在的负面影响。该公司表示,他们正在研究一些水印技术,以标记其生成器创建的内容,并正在与了解情况的人士接触,以找出如何减轻Sora将带来的不可避免的人工智能生成的垃圾对生态的毒害。Sora目前尚未向公众开放,与此同时,OpenAI表示其正在创建系统,拒绝用户生成暴力或色情图像。声明指出:
我们将与全球的政策制定者、教育工作者和艺术家进行接触,了解他们的关切并确定这项新技术的正面用途。尽管我们进行了广泛的研究和测试,但我们无法预测人们将如何使用我们的技术带来的所有益处,也无法预测人们将如何滥用它。
这种问题的框架化有点滑稽,因为OpenAI的新工具如何潜在地被滥用已经完全显而易见。Sora将以巨大的规模生成虚假内容——这一点是显而易见的。这些内容中,很可能有一些将被用于网络政治虚假信息,一些可能会在各种欺诈和诈骗中被使用,还有一些可能会产生有害内容。OpenAI表示希望对暴力和色情内容设定有意义的限制,但互联网用户和研究人员已经展示了他们在破解AI系统以生成违反公司使用政策的内容方面有多聪明。所有这些Sora内容显然都将涌入社交媒体渠道,使普通人更难以区分真假,使互联网总体上变得更加烦人。我认为这不需要全球专家小组来找出。
还有一些其他明显的不利因素。首先,Sora——以及其他类似的工具——可能对环境产生不利影响。研究人员已经表明,文本到图像生成器在环境方面比文本生成器更糟糕,而仅仅创建一个人工智能图像所需的能量与充满你的智能手机所需的能量相同。其次,新的文本到视频生成技术很可能会损害视频创作者的经济,因为为何公司要付钱给人们制作视觉内容,当创建视频所需的一切只是点击一个按钮呢?
免责声明:本文观点来自原作者,不代表Hawk Insight的观点和立场。文章内容仅供参考、交流、学习,不构成投资建议。如涉及版权问题,请联系我们删除。