人工智能正前所未有地介入到人类生活,在提供便利的同时也潜藏着对技术、伦理、政治等诸多方面的风险挑战。为促进对人工智能治理的前瞻性思考,6月17日,华东师范大学哲学系应用伦理中心,华东师范大学应用伦理研究院、人文与社会科学研究院,邀请美国科罗拉多矿业学院人文、艺术和社会科学名誉教授Carl Mitcham主讲“人工智能的‘危’与‘机’”。华东师范大学哲学系系主任刘梁剑教授主持讲座,上海科学学研究所李辉教授,华东师范大学哲学系张容南教授、潘斌教授参与讲座并就相关议题与Mitcham教授进行了深入探讨。同时本次讲座作为华东师范大学2024年第32场知名学者学术讲座、伦理与智慧名家讲堂第11讲。
Mitcham教授首先从哲学的角度审视了“Promise and Peril”这一主题。他认为在古代哲学时期就对技术两面性进行了深入讨论。如柏拉图在《斐德罗篇》中对技术的讨论,以及亚里士多德关于医生技艺既能治愈也能伤害的论述。Mitcham教授指出,每当新技术出现时,就会讨论它的前途与危险,从工业机器、核武器到今日人工智能概莫能外。他区分了两种人工智能:ACI (Artificial capable intelligence)能够执行一系列复杂任务,但并非全领域通用;而AGI (artificial general intelligence)则比最聪明的人类还要出色地完成所有认知技能。随着技术的进步,超越人类的人工智能的出现已成为可能,这会带来了前所未有的伦理和技术挑战。
Mitcham教授继而追溯了人工智能研究的起源,提到了Norbert Wiener、Alan Turning、和Marvin Minsky这三位在人工智能领域的关键人物。Wiener是控制论之父,他在1946年至1953年间举办的梅西控制论会议(Macy Conferences on cybernetics)中提出了“Cybernetics”一词,用以描述控制和通信理论的相关问题。Wiener认为,所有智能行为都是反馈机制的结果,理论上可以通过技术模拟实现。他警告说,人类可能会面临完全依赖机器的风险,特别是随着机器学习能力的增强,它们的发展可能会超出人类给它们设定的目标,这就凸显了对齐问题的重要性:我们必须确保机器的运行目标与我们期望它实现的目标相一致,尤其是在无法有效干预其运作的情况下。众所周知,Turning提出了图灵测试。Minsky在1956年的达特茅斯会议上认为,对人工智能的研究目标是精确描述其各个方面,以便机器能够模拟人类的抽象思维、语言使用、问题解决能力乃至自我改进。
Mitcham教授描述了人工智能研究的“三起两落”,即人工智能领域经历的三次繁荣与两次衰退,揭示了人工智能研究进程中的反复性和曲折性。他特别强调了Stuart Russell《人工智能:一种现代方法》(AIMA)一书中对AI研究计划的解析,AIMA将AI研究计划区分为4个不同的哲学立场:人类中心主义(Human-Based);理性基础主义(Reason-Based);行为基础主义(Behavior-Based);理性行为主义(Entities that act rationally),Mitcham教授指出,尽管AIMA提供了对人工智能研究目标的不同视角,但我们需要更深入地考虑人工智能的发展方向,确保其发展既符合技术进步,也符合伦理和社会责任。
Mitcham教授还强调了人工智能在伦理与政治层面带来的影响。在伦理学方面,Mitcham教授介绍了Mark Coeckelbergh的著作。在Coeckelbergh的伦理学视角下,人工智能伦理的讨论涵盖了人机差异、机器道德编程的可能性,以及数据科学中的隐私、责任、决策委托、透明度、偏见和人工智能经济领域的未来等问题。而从政治哲学角度,人工智能的发展伴随着自由、平等、民主、权力和人类学等多个维度的讨论。对于人工智能可能带来的政治末日时,Mitcham教授论述了目前各种风险理论。《原子科学家公报》区分了人类面临的三类威胁:自然威胁、人为威胁和未来威胁。John Leslie在《世界的终结》一书中分析了全球性灾难风险,包括自然灾难、人类活动以及被认识和未被认识的风险。Martin Rees强调了技术可能带来的无意破坏效果,包括核武器、环境污染、纳米技术和生物基因工程。Nick Bostrom提出了存在性风险(Existential risk)的概念,即那些可能导致地球生命被彻底毁灭或其潜力被永久严重削弱的风险。Max Tegmark等人在MIT创立了未来生命研究所,旨在研究减少来自各类技术引发的全球性灾难和存在性风险,特别是聚焦于人工智能领域。Toby Ord在《悬崖边缘:全球性风险》中讨论了自然、人为和未来的风险,并提出了量化和政策响应的建议。Mitcham教授将各类风险归类为全球性风险与地方性风险,并引用了Toby Ord和Winston Churchill的观点指出,我们面临的人为风险远远超过自然风险,未来关于生存灾难的风险是真实存在的,甚至可能还会回到石器时代。
Mitcham教授通过Mustafa Suleyman《即将到来的浪潮》一书,深入分析了人工智能(AI)与合成生物学(SB)的现状及其对社会潜在的深刻影响,特别聚焦于伴随这些技术而来的风险与挑战。AI与SB作为全功能、超进化的技术,其影响广泛且非对称,超越了历史上的通用技术如蒸汽动力或电力,它们正成为生活、社会与经济运行中的基础设施,这就导致对这些技术的控制难度远超以往。这些技术的普及和自我进化不仅加速了其发展和应用,还带来了由设计缺陷或恶意利用导致的非对称性影响,使全球竞争者、非国家实体乃至极端分子具备了动摇全球秩序、挑战既定权力结构和危害公共卫生的能力。Mitcham教授认为,尽管像Suleyman等人意识到技术可能带来的风险,但在公众中过分放大了技术带来的效益,潜在的危机和威胁则被边缘化,Suleyman称之为“悲观主义规避”,也就是不愿意在现实中面对潜在的灾难性后果,只在各种虚构的英雄电影中才愿意面对。Suleyman在书中指出,技术发展速度过快,超出了国家治理和人类智慧的增长速度,给社会带来前所未有的压力。他批评了硅谷中流行的自由主义反国家情绪,同时还提出了十项具体策略,旨在探索技术遏制的可能性,包括鼓励安全创新、安全措施的审核、利用出口控制减缓技术扩散速度等,从而加强对于技术发展的监管。
Mitcham教授指出,在讨论人工智能及其对社会的影响时,“我们”的问题凸显了集体行动面临的挑战与复杂性。无论是在西方国家,还是在全球范围内都很难找到统一行动的基础,甚至意见分歧正在扩大,全面的监管计划会遭到自由主义和民粹主义的反对,Suleyman的十项策略都显示出不成熟之处。John Gray的观点进一步强化了这一点,他认为自由社会在历史上已经退化为“持续的低烈度内战状态”,充斥着身份政治和过度的自由主义,这些都阻碍了在技术领域的实质性合作。Mitcham教授最后强调了在全球化和技术快速发展的背景下,实现有效的国际合作和治理的复杂性,并建议进行更深层次的哲学思考。
讲座最后,Mitcham教授与在场师生就人工智能发展带来的诸如全球治理、风险治理、运作机制、责任分配等问题进行了探讨。(文/王九洲,图/苏萱)