RNZ 【专家发现:人工智能 "优于生物智能” 】
当前位置: 首页 → 时事动态 →
RNZ 【专家发现:人工智能 "优于生物智能” 】
- 杰弗里·辛顿(Geoffrey Hinton)| 2024 年 3 月 14 日
被广泛认为是人工智能教父的人担心人工智能技术变得过于强大,不利于人类自身的发展。
知名计算机科学家杰弗里-辛顿(Geoffrey Hinton)去年辞去了在谷歌的职务。
辞职时,他说自己可以畅所欲言地谈论各种危险,其中一些 "相当可怕"。特别是围绕人工智能如何传播错误信息、颠覆就业市场,以及最终对人类的生存构成威胁。
辛顿是神经网络的早期先驱,神经网络是一种受人脑启发,教计算机处理数据的方法。
正是这种网络演变成了人工智能,而人工智能的发展速度如此之快,以至于本周欧盟立法者批准了有关人工智能的新法规。
与此同时,新西兰政府也表示将制定一个框架。
杰弗里-辛顿(Geoffrey Hinton)博士告诉新西兰国家广播公司(RNZ)的《九点到中午》(Nine to Noon),2023年初,当他试图提高人工智能的能效时,他意识到用于运行神经网络的数字计算机 "实际上可能优于生物智能"。
"它们有一些地方比我们现有的更好,那就是它们相互分享知识的能力。”
"因此,如果有 1 万人去学习 1 万种不同的东西,他们很难分享所有这些知识。教育是一件痛苦的事情。”
"但是,如果有 1 万份在其他计算机上运行的相同神经网络模型,去学习 1 万种不同的互联网知识,他们或多或少都能立即分享他们所学到的知识。因此,它们中的每一个都能知道它们都学到了什么,这就是它们远远优于我们的一种方式。"
他说,像 GPT 4 这样的系统所知道的比任何一个人都要多数千倍,这是因为它拥有比任何一个人都要多数千倍的经验。
"它们通过在不同的硬件上运行许多不同的模型来做到这一点,但它们都是同一个模型。因此,当其中一个模型学习到知识时,它就可以与其他所有模型分享它所学到的知识,这是一种蜂巢思维。"
人类的一面
辛顿说,掌握一般知识和人类的推理能力之间并没有明显的区别。
"编造和记忆之间没有明显的界限"
"因此,当我们回忆起很久以前发生的事情时,我们实际上是在编造一些听起来似是而非的东西,而且可能有许多细节是错误的。如果是最近发生的事,我们可能会把细节记对。"
但过程是一样的,它涉及到神经网络中神经元之间连接强度的知识。然后利用这些知识,"想出我们或人工智能系统听起来很有道理的词串"。
他说,神经网络的工作方式更像人。
许多人认为,在不久的将来,人工智能会变得比人更聪明。
"因此,它的一般智能就会比我们高,这相当可怕"。
人工智能的自主性、子目标和道德聊天机器人
他说,人工智能系统已经被赋予了自主性,通过将大模型制作成代理。
"要让一个代理有用,你就不能对它进行微观管理。举例来说,如果你想去北半球,你会制定一个计划,这个计划的一部分是一个子目标,也就是去机场。现在,你可以专注于这个子目标,而不必担心计划的其他部分。
他说,大型语言模型或大型聊天机器人需要能够创建子目标,以便实现目标,而这一点目前正在研究之中。
"一旦它们能够做到这一点,你就必须非常小心它们究竟创建了哪些子目标。”
"他们可能会创建一些你并不打算创建的子目标。这就是所谓的对齐问题。”
"举例来说,如果你什么都没说,就告诉他们要摆脱气候变化,他们可能会认为最好的办法就是摆脱人类。而这并不是你真正的意思"。
不过,一些公司正在尝试打造道德聊天机器人。他说,总部位于美国的人工智能研究公司Anthropic正试图确保聊天机器人理解道德原则,这也是让聊天机器人更安全的一种方法。
辛顿说,随着美国、英国和澳大利亚的大选即将到来,系统在创建虚假图像、视频和声音方面的能力正在不断提高,这一点在今年会变得更加明显。
"特别是在右翼民粹主义浪潮的影响下,人们会利用这些东西来破坏民主进程,这一点非常令人担忧"。
失业
辛顿认为这是一个长期问题,他说,看起来许多常规工作会消失。
"没有人对此十分确定。经济学家也有不同意见。但我们正面临着前所未有的问题,那就是比我们更聪明的东西。"
很难预测比人类更聪明的东西。
"但是,当我们可以制造出比我们更强大的机器时,常规的智力劳动似乎很可能会走常规体力劳动的老路。"
国际货币基金组织称,人工智能将冲击40%的工作岗位,并加剧不平等现象。
网络犯罪
他说,像Facebook、谷歌、OpenAi和微软这样的大公司有能力将其模型开源。
"开源通常是一件非常好的事情。它可以帮助更多的人发现程序中的漏洞等。但这些东西与普通的计算机程序不同。它们内部有一个计算机程序,知道如何学习,但学习什么是由数据决定的,我们并不知道它到底会学到什么。”
"因此,将它们开源是非常危险的,因为网络罪犯等人可以利用其中一个开源模型,对其进行微调,使其在进行网络犯罪或网络钓鱼攻击等活动时更加得心应手。"
开源模型使网络犯罪分子无需从头开始训练模型。
"这非常可怕。”
"我坚信我们不应该开源大型模型,但这也存在争议”。
著名的开源倡导者扬-勒昆(Yann LeCun)乐观地认为,"好人总能打败坏人",辛顿说。
存在的威胁
辛顿说,如果数字智能取代了生物智能,那么这将成为一场机器与人类之间的权力斗争。
"我们可能会赋予它目标,而它可能会以我们意想不到的方式实现这些目标,这对我们是有害的。因此,举例来说,几乎所有你必须做的事情都有一个非常好的子目标,那就是获得更多的控制权,因为如果你有更多的控制权,你就能完成更多的工作。”
"我们与生俱来就想控制一切"
但人工智能系统可以获得控制权,因为它们更聪明。
辛顿说:"即使它们做的事情是为了帮助我们,但在官方看来,它们实际上可能掌管着一切。”
他说,人工智能系统也有一定程度的意识,知道自己在哪里,在和谁说话。
那么,是什么让我们更像人类呢?
"也许什么都没有。”
当被问及人工智能是否只是创造了一个新的非有机、非生物物种时,他表示同意。
"如果它来自外太空,我们会很害怕,但因为是我们自己制造的,而且它英语说得很好,我认为我们还不够害怕。"
研究与立法
辛顿说,研究人员应该研究对准问题。
"他们应该研究如何防止这些事情发生,做我们不想做的事情。”
辛顿对人工智能的未来有些悲观。
"但我们对它的科学了解还不够。所以这是当务之急。应该对它的科学进行大量的研究,研究的数量应该与让它们变得更好的研究数量相当。"
他说,各国政府也应致力于立法,将虚假视频、图像和内容标记为虚假--就像战斗机器人的日内瓦公约一样。
"我认为战斗机器人将会非常恶劣,我们可能不会有《日内瓦公约》这样的东西,而《日内瓦公约》在化学武器方面相当有效。”
"我们要等到看到它们有多恶心之后才会有这样的公约。目前,所有主要的国防部门都在研究战斗机器人之类的东西。据我所知,美国希望到 2030 年让一半的士兵成为战斗机器人。”
辛顿说,需要立法来限制它们可能造成的伤害,但 "除非发生非常糟糕的事情,否则我们不会立法"。
原文链接:(中文翻译出自翻译软件,仅供参考。)
Medium【杰弗里-辛顿教授--"数字智能会取代生物智能吗?罗曼尼斯讲座(youtube)】
史蒂夫·科恩(steve cohen) | 2024 年 3 月 9 日
辛顿教授认为,数字计算由于其精确性、不朽性以及快速分享和积累知识的能力,很可能在能力和效率方面超越生物智能。他指出了数字计算相对于生物计算的几个优势:
数字计算的不朽性: 数字系统可以保存和复制其状态(知识)而不会退化,不像生物系统会衰老和死亡。这种不朽性意味着数字智能可以无限期地积累知识。
通信效率: 与生物系统相比,数字系统可以更高效地共享知识。生物大脑传递知识的能力有限(需要缓慢、不精确的方法,如语言和教学),而数字系统可以通过复制数据快速分享大量知识。
能源效率和可扩展性: 虽然生物系统具有很高的能效,但数字系统,尤其是利用先进的硬件和算法,能够以生物系统无法达到的规模和速度运行。
快速改进和学习: 数字系统的更新和改进速度远远超过生物进化。它们还可以从大量数据集中学习,从而以比人类更快的速度掌握知识和技能。
他对这一转变可能带来的重大挑战和风险提出警告,强调需要对先进的人工智能技术进行审慎考虑和伦理管理。
辛顿教授的建议围绕着需要对人工智能的发展和部署进行积极主动和深思熟虑的管理,重点强调安全研究、伦理考虑和监管监督,以降低与强大的人工智能技术相关的风险。
原文链接:(中文翻译出自翻译软件,仅供参考。)
当前位置: 首页 → 时事动态 →