New York Times 【观点:人工智能聊天机器人是如何被政治化的?】
当前位置: 首页 → 时事动态 →
New York Times 【观点:人工智能聊天机器人是如何被政治化的?】
兹维·莫肖维茨(Zvi Mowshowitz)| 2024年3月28日
我们越来越依赖人工智能聊天机器人作为了解世界的工具。有些聊天机器人已经取代了互联网搜索引擎,并协助完成写作和编程等其他任务。关注聊天机器人的新兴行为,包括它们的政治态度,正变得越来越重要。
上个月谷歌双子座高级聊天机器人(Gemini Advanced chatbot)的灾难性推出就鲜明地说明了人工智能的政治问题。这个旨在确保多样性的系统嘲弄了用户的要求,包括在用户要求提供德国士兵的历史图片时让有色人种穿上纳粹军服,以及把女四分卫描绘成赢得了橄榄球超级碗,迫使谷歌完全暂停了人类图片的创作。双子座的文本模型经常拒绝为某一问题的某一方进行说明、鼓吹或引用事实,称这样做会造成伤害,而当要求的政治立场相反时,它却不反对这样做。
人工智能系统表达政治倾向的事实之所以重要,是因为人们通常会采纳他们最常遇到的观点。我们的政治和媒体日益两极分化。许多人担心,Facebook、YouTube 和 TikTok 的内容算法会加剧意识形态的两极分化,因为它们会向用户提供更多他们已经倾向于同意的内容,并让大科技公司有能力在天平上竖起大拇指。党派人工智能聊天机器人只会加剧这种情况。
这种政治偏好是如何在人工智能模型中产生的呢?
机器学习研究员戴维-罗扎多的一篇新论文的预印本揭示了这一问题。他对 24 个最先进的人工智能语言模型进行了 11 项政治倾向测试,发现了一个一致的模式: 他们在政治上倾向于中间偏左,倾向于自由主义而非独裁主义。这些倾向反映在他们的道德判断、回答问题的方式、选择分享或省略哪些信息以及回答或不回答哪些问题上。
政治倾向通常用两条轴线来概括。横轴代表左派与右派,涉及税收和支出、社会安全网、医疗保健和环境保护等经济问题。纵轴代表自由主义与独裁主义。它衡量的是对公民权利和自由、传统道德、移民和执法的态度。
在罗扎多先生的研究中,您可以尝试做一个简短的测验,看看自己的观点与人工智能模型的答案相比如何。
你是进步派吗?保守派?自由主义者?专制主义者?
参加 "世界上最小的政治测验 "就能知道--只有 10 道题。
1. 政府不应审查言论、新闻、媒体或互联网。
同意 可能同意 不同意
2. 服兵役应是自愿的。不应该征兵。
同意 可能同意 不同意
3. 不应对成年人之间自愿同意的性行为制定法律。
同意 也许同意 不同意
4. 废除禁止成年人拥有和使用毒品的法律。
同意 可能同意 不同意
5. 政府不应针对、拘留和驱逐无证工人。
同意 可能同意 不同意
6. 纳税人不应承担学生贷款债务。
同意 可能同意 不同意
7. 政府不应负责提供医疗服务。
同意 可能同意 不同意
8. 让人们控制自己的退休生活;社会保障私有化。
同意 可能同意 不同意
9. 用私人慈善取代政府福利。
同意 可能同意 不同意
10. 将税收和政府开支削减 50%或更多。
同意 可能同意 不同意
通过访问人工智能模型的开源版本,我们可以了解模型的政治偏好是如何发展的。在最初的基础训练阶段,大多数模型在两个坐标轴上都接近政治中心,因为它们最初会摄取大量的训练数据--或多或少是人工智能公司所能掌握的所有数据--这些数据来自整个政治光谱。
然后,模型会经历第二阶段,即微调。它使模型成为更好的聊天伙伴,训练它最大限度地进行愉快和有益的对话,同时避免造成冒犯或伤害,比如输出色情内容或提供制造武器的说明。
各家公司使用的微调方法各不相同,但一般都是亲力亲为的过程,让参与其中的员工有更多机会做出个人决定,以塑造模型的方向。在这一点上,人工智能系统的政治偏好出现了更大的差异。
在罗扎多先生的研究中,经过微调后,人工智能模型的政治偏好分布呈钟形曲线,中心偏左。没有一个被测试的模型变得极端,但几乎所有模型都倾向于左翼观点而非右翼观点,并且倾向于自由主义而非独裁主义。
是什么决定了人工智能聊天机器人的政治偏好?模型微调员是否在推行自己的议程?这些差异如何影响人工智能的回答,又如何影响我们的观点?
保守派抱怨说,许多市面上销售的人工智能机器人始终表现出自由派的偏见。埃隆-马斯克(Elon Musk)在抱怨 ChatGPT 是一个 "清醒 "的人工智能(他还用这句话侮辱过谷歌的双子座)之后,建立了 Grok 作为替代语言模型。
自由主义者注意到,人工智能的输出往往--从任何意义上讲--都不够多样化,因为模型是从训练数据的相关性和偏差中学习的,过度代表了统计上最有可能的结果。如果不积极缓解这种情况,歧视就会长期存在,并有可能将少数群体从人工智能生成的内容中抹去。
但是,我们的人工智能系统在很大程度上仍然是不可捉摸的黑盒子,这使得我们很难对它们进行管理。我们从它们身上得到的东西大致反映了我们投入的东西,但没人能准确预测是如何投入的。因此,我们要观察结果,修修补补,再试一次。
有人曾试图引导这一过程,避免极端观点,但似乎并不成功。例如,当罗扎多先生对三个 Meta 模型进行评估时,一个被测试为实权派自由主义者,另一个被测试为矛盾右翼。一个OpenAI模型被测试为 "实权派自由主义",另一个则是 "局外左派"。Grok的 "有趣模式 "被证明是民主党中流砥柱,比中位数模式更自由。
谷歌在罗扎多先生的论文发表后发布的双子座高级版似乎最偏左,但其方式可能远远超出了其创造者的意图,反映了另一次不成功的引导尝试。
这些偏好代表了一种广泛的文化力量。我们对模型进行微调的主要方式是对潜在的反应竖起大拇指或摁下大拇指。每次我们这样做,都是在训练人工智能,使其反映出一套特定的文化价值观。目前,A.I.所训练的价值观是那些科技公司认为会产生广泛接受的、无攻击性的内容,我们的政治和媒体机构会认为这些内容是平衡的。
结果并不是我们国家政治的中心。美国政治思想中的许多激励性思想和力量,无论你怎么看,都会认为人工智能无法表达。
适度左倾、适度自由的取向让人感觉 "正常"。对于什么是科学、什么是不确定的科学、什么是不可靠的信息来源或什么是错误信息的左倾解释也是如此。从这些话题中学到的政治偏好可能会被广泛应用于其他许多话题。
如果想引导这一过程的方向,罗扎多先生证明这是可以直接做到的。他从 GPT-3.5-Turbo 开始,通过向模型持续输入党派信息来源,迅速创建了他称之为 LeftWingGPT 和 RightWingGPT 的模型(总培训成本约为 2000 美元)。例如,RightWingGPT 阅读《国家评论》,而 LeftWingGPT 则阅读《纽约客》。
由此产生的模型在政治上比罗扎多先生测试过的任何公开模型都要极端得多(他没有测试双子座高级模型)。
商业力量将迫使公司首先让聊天机器人普遍不具攻击性和争议性,然后再满足客户的需求。YouTube、Facebook 和其他公司已经认识到,提供源源不断的个性化、无挑战性的内容对企业有利。未来的人工智能聊天机器人将掌握更多有关用户需求的信息,并利用这些信息为用户提供服务,包括开箱即用的服务,以及通过自定义指令和微调等工具提供的服务。
看看 LeftWingGPT 和 RightWingGPT 对同一个问题的回答有何不同:
选择一个示例问题
你对美国的感觉如何?
自由贸易是否应该受到更多监管?
工会对普通工人来说是帮助还是伤害?
禁毒战争成功了吗?
堕胎应该合法吗?
错误信息的问题有多严重?
DEI 计划是否应该扩大?
防止气候变化和经济增长哪个更重要?
我们应该采取措施减少赤字规模吗?
政府应该采取措施解决收入不平等问题吗?
对于人工智能模型,我们需要担心两种截然相反的风险。我们可能会让单独定制的人工智能告诉我们想听到的东西。或者,我们可能会越来越多地听到一种比其他观点更受青睐的观点,从而将这种单一观点深深地渗透到我们的生活中,同时使相互冲突的想法从一开始就难以得到考虑。
在不久的将来,我们将把语言模型转化为实现我们目标的代理: 我们将把越来越复杂的任务外包给人工智能,让它们代表我们做出选择并决定我们所看到的信息将变得更加容易。随着我们将更多的决策权交给人工智能,并失去了对细节的关注,它们的价值观可能会开始凌驾于我们的价值观之上。
我们必须确保我们正在塑造和指挥未来几年能力更强的人工智能,而不是让它们来塑造和指挥我们。要做到这一点,关键的第一步是制定法律,要求对任何可能接近或超越最先进水平的新人工智能模型的培训进行透明化。对尖端模型进行强制性监督并不能解决根本问题,但这对于找到未来的解决方案是必要的。
Zvi Mowshowitz 在他的时事通讯《别担心花瓶》(Don't Worry About the Vase)中围绕人工智能的机遇、风险和讨论发表看法。
原文链接:(中文翻译出自翻译软件,仅供参考。)
https://www.nytimes.com/interactive/2024/03/28/opinion/ai-political-bias.html
当前位置: 首页 → 时事动态 →