赤褐色砂石 » 褐石研究所文章 » 人们在人工智能辩论中忽视了什么
ChatGPT

人们在人工智能辩论中忽视了什么

分享 | 打印 | 电子邮件

值得注意的是最近几周有关人工智能 (AI) 的文章,特别是围绕 ChatGPT 的炒作。 据我判断,这大部分本质上是一种认知或恐惧,即人工智能在智力方面已经超越了人类。 哈维·里施博士的 令人大开眼界的账户 他与人工智能的“对话”充分证明这是一种错误的看法,但无论如何它似乎仍然存在。 

我最近与一位 ChatGPT 爱好者的经历传达了同样的印象,即人们普遍认为后者的 AGI(通用人工智能)在智能方面即使不是优于人类,也是与人类平等的。 这件事发生在我向一个文化组织的成员进行一次演讲时,演讲的主题是弗洛伊德和汉娜·阿伦特的著作可以在多大程度上洞察当前全球阴险的极权主义控制措施的增长。 

其中一个明显的事态发展是世界卫生组织试图通过成功修改其宪法来剥夺各国的主权。 两年前,由于非洲国家反对拟议的修正案,这一尝试失败了,但世界卫生组织将在2024年再次尝试,同时大力游说非洲领导人。

听完我的演讲,有人把它的主题与人工智能联系起来。 具体来说,这与我的主张有关,一方面是弗洛伊德的爱欲(生命驱力)和塔纳托斯(死亡驱力)概念,另一方面是阿伦特的概念 出生率 (每个人的出生都给世界带来了一些独特的东西) 复数 (所有人类都是不同的),另一方面揭示了极权主义的本质。 这也涉及到极权主义的推行者能否维持下去的问题。 原来,我的演讲话题传开后,他让ChatGPT对此发表评论,并将AI的“答案”以打印形式带到会议上给我看。

可以预见的是,对于一个具有巨大数据库(这就是 ChatGPT)的支持语言模式识别和预测的研究机器来说,准确地解释相关的弗洛伊德和阿伦特概念的含义并不困难——任何学生都可以在互联网上找到它或者也在图书馆。 但人工智能的问题在于我在这些思想家的想法与全球空间中发生的当前事件之间建立了联系。

回想一下,我曾启发性地运用弗洛伊德和阿伦特的概念来处理当今各个制度领域中极权主义“举动”的迹象。 ChatGPT——同样可以预见——做到了(并且可以说 可以)没有详细说明我在演讲标题中暗示的联系,而只是“声明”这两位思想家的思想和极权主义之间存在“某种”关系。

其原因应该是显而易见的。 ChatGPT 的数据库中没有任何信息 – 以清晰易读的解释形式 – 诸如世界卫生组织持续试图成为世界管理机构(如上所述)之类的事件是全球极权主义政权萌芽的征兆。 对于 ChatGPT(或任何其他人工智能)来说,要能够提出这样的“解释”,它要么必须由程序员输入到其数据库中——考虑到它对这一问题的隐含批评,这是不太可能的,甚至是不可想象的。促成 ChatGPT 构建的一系列力量——否则人工智能必须拥有所有“正常”人类所拥有的能力,即能够解释他们周围的体验世界。 显然,没有人工智能具有这种能力,因为它依赖于编程。 

我的对话者对我的这一解释性回应提出了质疑,认为 ChatGPT 展示了它对人们可能提出的问题提出的每一个“答案”的“推理”能力。 我指出,这并不是对人工智能所做工作的准确描述。 请记住:ChatGPT 会用日常语言对所提出的问题做出拟人化的回答。 它通过使用在它可以访问的庞大数据集中检测到的示例来实现这一点,这使得它能够预测句子中的连续单词。 简而言之:它能够使用“机器学习”在这些巨大的数据库中进行统计模式查找。 

这不是推理的本质,每个学过逻辑学和哲学史的学生都应该知道——正如勒内·笛卡尔 (René Descartes) 在 17th 世纪以来,推理是直觉洞察和推理或演绎的结合。 人们从直觉开始——比如,灯灭了——然后推断,要么有人把灯关掉了,要么电力供应已经中断。 或者,人们可以根据一组给定(直观的洞察力)(通过演绎)推断出另一组给定的情况可能或不太可能。 人们在任何时候都不会求助于大量数据来扫描表现出相似性的模式,并在此基础上冒险进行预期预测。

然而,正如人们可以从计算机科学家(例如 阿尔温德·纳拉亚南博士普林斯顿大学计算机科学教授表示,人们(就像我的对话者)很容易被 ChatGPT 等人工智能愚弄,因为它看起来非常复杂,而且它们变得越复杂,用户就越难发现自己在以下方面的缺点:伪推理以及他们的错误。

正如纳拉亚南博士指出的那样,ChatGPT 对他提出的一些计算机科学考试问题的回答是虚假的,但它们的措辞方式如此似是而非,以至于它们的虚假性并不能立即显现出来,他必须检查三遍才能确定这是真的。情况就是如此。 ChatGPT 所吹嘘的“取代”人类的能力就到此为止了。

然而,我们应该记住,到目前为止,以比较的方式讨论的主题是,像 ChatGPT 这样的人工智能在智力水平上是否以与人类相同的方式运作,这涉及推理而不是模式识别等差异,等等。 当然,人们也可以用自卑和优越来表达这个问题,有些人认为 人类仍然出现 即使人工智能可以比人类更快地执行数学计算,也可以智胜人工智能。 

但只有当我们改变立场时,才能从整体上看待人类与人工智能(无论多么聪明)之间的根本区别。 参与关于人类与“人工智能”的辩论的人们大多忽视了这一点,原因很简单,即智能是 不能 一切都重要

为了说明我的意思,回想一下世界象棋冠军加里·卡斯帕罗夫和 深蓝色1997 年,IBM 的“超级计算机”。1996 年被卡斯帕罗夫击败后, 深蓝色 次年,机器首次战胜了人类,随后,就像今天的 ChatGPT 一样,人们普遍对所谓的人类“灭亡”感到悲痛,以卡斯帕罗夫为代表的人类被计算机战胜了(一个人工智能)。 

就像今天关于 ChatGPT 的事情一样,这种反应象征着绝大多数人在判断人工智能与人类之间的关系时所犯的错误。 通常这样的评估是在认知方面进行的,通过评估人类或机器谁更“聪明”。 但人们应该问,智力是否是当时和现在比较人类和计算机(作为人工智能的代表)的合适的衡量标准,更不用说是最合适的衡量标准。 

可以理解的是,当时到处都有关于卡斯帕罗夫被机器羞辱的报道,我记得曾经遇到过这样的报道,当我提到人类和人类之间比较的正确或适当的标准时,作者表现出对我的想法的敏锐理解。人工智能。 重建了卡斯帕罗夫历史性溃败的令人沮丧的细节 深蓝色,这位作家诉诸了一种幽默但又讲述性的小幻想。

在人类象征性的失败之后,她或他虚构了,设计和建造的工程师和计算机科学家团队 深蓝色 到城里庆祝他们划时代的胜利。 写“他们的机器的胜利”是错误的,因为严格来说,是人类团队通过“他们的”计算机取得了胜利。

当作者反问道,是否 深蓝色也出去用浅粉色把小镇涂成红色,以享受它的征服。 不用强调,这个反问句的答案是否定的。 接下来是妙语,陈述了显而易见的事情; 即“人类庆祝; 计算机(或机器)做 不是。和 

回顾过去,人们会觉得这位作家是一位有远见的人,他用一部小说来强调这样一个事实:尽管人类和人工智能共享“智能”(尽管种类不同),但它们确实具有相同的“智能”。 不能 标记人工智能和人类之间最明显、不可缩小的差异。 人类和人工智能之间还存在其他更具决定性的差异,其中一些已经被探索过 此处此处



发表于 知识共享署名4.0国际许可
如需转载,请将规范链接设置回原始链接 褐石研究所 文章和作者。

作者

  • 伯特·奥利维尔

    Bert Olivier 在自由州大学哲学系工作。 伯特从事精神分析、后结构主义、生态哲学和技术哲学、文学、电影、建筑和美学的研究。 他目前的项目是“理解与新自由主义霸权相关的主题”。

    查看所有文章

今天捐赠

你们对布朗斯通学院的财政支持将用于支持作家、律师、科学家、经济学家和其他在我们这个时代的动荡中受到职业清洗和流离失所的勇敢人士。 您可以通过他们正在进行的工作帮助查明真相。

订阅 Brownstone 以获取更多新闻


商店褐石

随时了解 Brownstone Institute 的最新动态