New York Times 【观点:人工智能产生的垃圾正在污染我们的文化】

From 时政文萃
Jump to navigationJump to search
当前位置: 首页 时事动态

New York Times 【观点:人工智能产生的垃圾正在污染我们的文化】


埃里克-胡尔(Erik Hoel) | 2024 年 3 月 29 日


越来越多由人工智能合成的内容在我们的信息源和搜索中出现。其利害关系远远超出了我们屏幕上的内容。整个文化都在受到人工智能的影响,它正潜移默化地渗透到我们最重要的机构中。


想想科学。GPT-4 是 OpenAI 最新推出的人工智能模型,也是目前最先进的人工智能模型之一。尤其是在人工智能领域本身。


本月发表的一项研究考察了科学家们的同行评议--研究人员对他人工作的官方声明,是科学进步的基石--在一些研究人工智能的高知名度的著名科学会议上,这些同行评议使用 "一丝不苟 "一词的频率是前一年评议的34倍多。值得称赞 "一词的使用频率约为前一年的 10 倍,"错综复杂 "一词的使用频率为前一年的 11 倍。其他主要会议也显示出类似的模式。


当然,这些措辞也是现代大型语言模型(如 ChatGPT)最喜欢的一些流行语。换句话说,在人工智能会议上,大量研究人员被发现把对他人工作的同行评审交给了人工智能--或者,至少是在大量人工智能的协助下撰写。而且,提交的评论越是临近截止日期,其中使用人工智能的情况就越多。


如果这让你感到不舒服--尤其是考虑到人工智能目前的不可靠性--或者如果你认为也许不应该由人工智能来审查科学,而应该由科学家自己来审查,那么这些感受就凸显了这项技术核心的悖论: 在骗局和正常使用之间的道德界限尚不明确。有些人工智能生成的骗局很容易识别,比如医学期刊论文中出现了一只长着巨大生殖器的卡通老鼠。其他许多骗局则更加隐蔽,比如同一篇论文中描述的错误标签和幻觉调节途径--这篇论文也经过了同行评审(也许,人们会猜测,是由另一名人工智能所为?)


那么,当人工智能被用于其预期用途之一--协助写作时,又会怎样呢?最近,在科学数据库中进行简单搜索,就会出现 "作为人工智能语言模型 "这样的短语,这显然引起了轩然大波。如果这些作者只是删除了这些不小心留下的水印,他们使用人工智能撰写论文的行为就不会有问题吗?


科学界发生的事情只是一个更大问题的缩影。在社交媒体上发帖?现在,任何在 X 上发布的病毒式帖子几乎都会包含人工智能生成的回复,从原始帖子的摘要到用 ChatGPT 平淡的维基百科声音写出的反应,所有这些都是为了获取关注。Instagram上充斥着人工智能生成的模特,Spotify上充斥着人工智能生成的歌曲。出版一本书?不久之后,在亚马逊上就会经常出现人工智能生成的 "工作手册 "出售,据说是与你的书配套的(内容并不正确;我知道,因为我就遇到过这种情况)。现在,谷歌搜索的热门结果往往是人工智能生成的图片或文章。《体育画报》(Sports Illustrated)等大型媒体一直在制作人工智能生成的文章,并将其归功于同样虚假的作者简介。销售搜索引擎优化方法的营销人员公开炫耀使用人工智能生成成千上万的垃圾文章,从竞争对手那里窃取流量。


还有越来越多的人利用人工智能生成技术,在 YouTube 上为儿童制作廉价的合成视频。一些例子是《爱乐之城》的恐怖片,比如关于鹦鹉的音乐视频,其中的鸟儿眼睛里长着眼睛,嘴里长着嘴里,一边用人工声音唱着 "树上的鹦鹉说你好,你好!",一边深不可测地变形。叙述毫无道理,人物随意出现和消失,形状名称等基本事实都是错误的。我在我的时事通讯《本源视角》上发现了一些这样的可疑频道后,《连线》发现了一些拥有数十万甚至数百万订阅者的账户在生产流水线中使用人工智能生成器的证据。


作为一名神经科学家,我对此感到担忧。难道人类文化中不可能包含认知微量营养素--如连贯的句子、叙事和人物的连续性--而这些正是发育中的大脑所需要的吗?据说爱因斯坦说过 "如果你想让你的孩子聪明,就给他们读童话故事。如果你想让他们非常聪明,那就给他们读更多的童话故事。但是,当一个蹒跚学步的孩子阅读的大多是人工智能生成的梦话时,会发生什么呢?我们发现自己正处于一个巨大的发展实验之中。


现在互联网上有太多的合成垃圾,人工智能公司和研究人员自己都很担心,不是担心文化的健康,而是担心他们的模型会发生什么。随着人工智能能力在 2022 年的不断提升,我曾撰文指出,文化有可能被人工智能的创造物淹没,以至于当未来的人工智能接受训练时,之前的人工智能输出会泄漏到训练集中,导致未来的内容变得越来越刻板和可预测,成为复制的复制。2023 年,研究人员针对这种风险对人工智能训练的影响提出了一个专业术语:模型崩溃。从某种程度上说,我们和这些公司在同一条船上,划过同样的污泥,流入我们的文化海洋。


有了这个令人不快的类比,我们不妨看看历史上最能反映我们当前处境的类比:环保运动和气候变化。正如公司和个人在不可阻挡的经济利益驱使下制造污染一样,人工智能的文化污染也是在理性的决策驱使下,以尽可能低的成本满足互联网对内容的贪婪需求。虽然环境问题远未得到解决,但不可否认的是,我们已经取得了进步,使我们的城市基本没有烟雾,我们的湖泊基本没有污水。怎么做到的?


在任何具体的政策解决方案出台之前,人们已经认识到环境污染是一个需要外部立法解决的问题。对这一观点产生影响的是生物学家和生态学家加勒特-哈丁于 1968 年提出的观点。哈丁博士强调,污染问题是由人们从自身利益出发造成的,因此,"只要我们的行为是独立的、理性的、自由的,我们就会被禁锢在一个'自污其巢'的系统中"。他将这一问题总结为 "公地悲剧"。他的这一观点对环保运动起到了重要作用,环保运动开始依靠政府监管来完成企业无法或不愿完成的任务。


我们再一次发现自己正在上演公地悲剧:短期的经济私利鼓励人们使用廉价的人工智能内容来最大限度地提高点击率和浏览量,这反过来又污染了我们的文化,甚至削弱了我们对现实的把握。迄今为止,主要的人工智能公司都拒绝采用先进的方法来识别人工智能的杰作--它们可以通过添加隐藏在用词或图像像素中的微妙统计模式来做到这一点。


不采取行动的一个常见理由是,如果人类编辑知道足够多的信息,他们总能在任何模式中做手脚。然而,我们遇到的许多问题并不是由动机明确、技术娴熟的恶意行为者造成的;它们主要是由于普通用户没有遵守道德使用准则造成的。大多数人对针对强制输出的统计模式的高级反制措施不感兴趣,理想情况下,这些输出应该被标记为人工智能生成的。


这就是为什么独立研究人员能够在同行评审系统中检测出人工智能成果,而且准确率出奇地高: 他们确实尝试过。同样,现在全国各地的教师都在自创输出端检测方法,比如在作文提示中加入隐藏的用词模式要求,只有在复制粘贴时才会出现。


特别是,人工智能公司似乎反对在其输出中加入任何可以将人工智能检测工作提高到合理水平的模式,也许是因为他们担心强制执行这些模式可能会对模型的输出造成过多限制,从而影响模型的性能--尽管目前还没有证据表明这是一种风险。尽管公司公开承诺要开发更先进的水印技术,但越来越明显的是,公司在拖延时间,因为拥有可检测的产品有违人工智能产业的底线。


要解决企业拒绝采取行动的问题,我们需要一部与《清洁空气法案》相当的法案:《清洁互联网法案》。也许最简单的解决办法就是通过立法强制在生成的产品中加入先进的水印,比如不易去除的图案。正如 20 世纪需要采取广泛的干预措施来保护共同的环境一样,21 世纪将需要采取广泛的干预措施来保护另一种不同但同样重要的共同资源,一种我们至今尚未注意到的资源,因为它从未受到过威胁:我们共同的人类文化。


埃里克-霍尔(Erik Hoel)是一位神经科学家、小说家和《内在视角》通讯的作者。


原文链接:(中文翻译出自翻译软件,仅供参考。)

https://www.nytimes.com/2024/03/29/opinion/ai-internet-x-youtube.html

当前位置: 首页 时事动态