曾几何时,关于决定论和自由意志的争论只存在于哲学系和宿舍深夜的谈话中。它们之所以有趣,恰恰是因为看起来无伤大雅。无论答案如何,生活照常继续。法院审判,医生诊断,教师教书,政客们——至少名义上——仍然要为自己的行为负责。那个时代已经结束了。
人工智能已经将曾经看似抽象的哲学问题,转化为关乎治理、权力与问责的具体议题。决定论不再仅仅是关于宇宙运行规律的理论,它正在成为现代机构的运作原则。而这,改变了一切。
人工智能系统从本质上来说就是确定性的。它们通过统计推断、优化和概率来运行。即使它们的输出结果出乎我们的意料,也仍然受到数学约束。这些系统中没有任何内容类似于人类意义上的判断、解释或理解。
人工智能不会进行思考。
它没有反映出来。
它不对结果承担责任。
然而,人们越来越倾向于将网络成果视为决策而非工具。这就是我们这个时代悄然发生的革命。
其吸引力显而易见。机构一直以来都难以应对人的差异性。人是反复无常、情绪化、反应迟钝,有时甚至不服从命令的。官僚机构更倾向于可预测性,而算法恰恰承诺了这一点:大规模的标准化决策,不受疲劳和异议的影响。
在医疗保健领域,算法承诺提供更高效的分诊;在金融领域,算法承诺提供更精准的风险评估;在教育领域,算法承诺提供客观的评价;在公共政策领域,算法承诺提供“循证”治理;在内容审核领域,算法承诺提供中立性。谁会反对那些声称能够消除偏见、优化结果的系统呢?然而,在这美好的承诺背后,却隐藏着一个根本性的误解。
预测不等于判断。
优化并非智慧。
前后一致并不等同于合法性。
人类的决策从来都不是纯粹的计算,它本质上是一种诠释。人们会权衡背景、意义、后果和道德直觉,会运用记忆、经验以及对未来后果的责任感——无论这种责任感多么不完美。而这恰恰是制度所不愿看到的。
人为判断会带来摩擦,需要解释,而且会让决策者承担责任。相比之下,确定性系统则提供了一种更具吸引力的解决方案:无需决策者即可做出决策。
当算法拒绝贷款、标记公民、降低病人优先级或压制言论时,似乎没有人需要为此负责。是系统做的。是数据说了算。是模型做的决定。
决定论沦为官僚机构的借口。
技术一直都在塑造着各种制度,但直到最近,它主要还是扩展了人类的自主权。计算器辅助推理,电子表格帮助人们权衡利弊。即使是早期的软件,也仍然让人类明显地掌控着一切。而人工智能改变了这种关系。
原本旨在预测的系统如今却具备了决策能力。概率转化为政策,风险评分变成了判决,建议悄然变成了强制令。一旦这些系统根深蒂固,就很难被挑战。毕竟,谁会质疑“科学”呢?
这就是为什么古老的哲学辩论变得迫切的原因。
古典决定论是一种关于因果关系的论断:只要掌握足够的信息,未来就可以预测。如今,决定论正在演变成一种治理理念。如果结果能够被充分预测,那么机构就会质疑,为什么还要允许自由裁量权的存在?
非决定论常被曲解为混乱。但如果正确理解,它既非随机性,也非非理性。它是诠释发生、价值权衡以及责任归属个人而非过程的空间。
移除这个空间,决策并不会变得更理性,而是会变得缺乏问责。
人工智能真正的危险不在于失控的智能或有感知能力的机器,而在于以效率为幌子,人类责任感的缓慢丧失。
21世纪的决定性冲突将不是人类与机器之间的冲突,而是两种智能愿景之间的冲突:确定性优化与不确定性下的意义建构。
一个是可扩展的。
另一方负有责任。
人工智能迫使我们决定由哪一个来主宰我们的生活。
-
Joaquim Sá Couto 博士在里斯本大学(葡萄牙)获得医学博士学位,并在美国继续攻读医学专业,并获得了医学学位 “美国外科医师委员会认证医师”(1989 年)萨库托医生是葡萄牙引入脉冲 Nd-YAG 对比激光治疗蜘蛛静脉(毛细血管扩张症)的先驱,他在该技术方面积累了约 15 年的经验。
查看所有文章