当人工智能遇上伦理道德专家纵论智能机器社会的风险与解决方案
目前,美国国防部高级研究计划局(DARPA)正在推进两个项目:“快速轻型机器人”(FLA)和“敌对环境下联合作战”(CODE),前者计划设计出一款旋翼机,能够在没有外界操控的情况下以极高的速度在城市环境或建筑物内部敏捷地飞行;而后者的目标是开发无人飞行器,将能够在完全与总部失去联络的情况下完成一整套攻击程序——搜索目标、锁定、跟踪、攻击、评估。它们将有可能促成“杀手机器人”的研发。
在近日发表于《自然》杂志上的一篇评论文章中,4位相关领域的研究领军者分享了他们对智能机器社会风险的担忧和解决方案。
美国加州大学伯克利分校的计算机科学教授Stuart Russell认为,这些武器所具备的敏捷性和致命性将让人类陷入毫无招架之力的境地,“这不是我们所梦想的未来场景”。而来自英国布里斯托尔大学的机器人专家Sabine Hauert则表示,公众无须对人工智能技术的发展感到担忧。
应对人工智能武器表明立场
Stuart Russel(美国加州大学伯克利分校计算机科学教授)
人工智能(AI)和机器人领域的专家面临一个重要的伦理决策:必须要决定他们是支持还是反对致命自主武器系统(LAWS)。此类系统能在几年而非几十年内发展为可行的。该领域的风险很高,致命自主武器系统被描述为战争的第三次革命,前两次是火药和核武器。
在几年之内,军方就可以组装带有武器的四轴飞行器和微型坦克,这些自动的飞行器和坦克不需要人类干预,自己能决定谁能活下来而谁又会死去。例如,四轴飞行器能在一座城市中找到并打击敌方战士,但不包括人类能设定目标的巡航导弹和遥远的无人驾驶飞机。
但是,国际人道法律对于此类技术没有任何具体的规定,现在也还不清楚国际社会是否会支持一个限制或禁止此类武器系统的条约。1949年签订的战争人道主义《日内瓦公约》要求任何袭击需要满足3个条件:军事必需、参与战争者和非参战者差别对待、军事目标价值及其潜在附带伤害的平衡。而当前的自动武器很难或根本无法作出这些主观判断。
作为一个人工智能专家,我曾被要求为特定常规武器公约(CCW)第三次重要会议提供专业证据。德国等许多国家迫切要求签署禁令,但美、英和以色列这3个LAWS技术领先的国家则认为这样一个条约没有必要。
LAWS通过允许机器选择杀死谁,而可能侵犯人类尊严的基本原则。在我看来,最应当关注的是这个技术发展轨迹的可能终点。我认为超过人类控制的系统将建成这一点是不可避免的。当然这些武器系统能涉及的范围和携带大型武器的能力会受到物理定律的限制。然而它们的灵活性和杀伤力将让人们毫无防御之力。这样的未来不会是人们想要的。
因此,人工智能和机器人领域的科学家及其所在的专业组织应当表明立场,正如物理学家当年对于核武器,抑或是生物学家对于在战争中使用病原体表明立场一样。应当召开学术会议进行讨论,并让伦理委员会参与进来。什么都不做就等于是表示支持继续发展和使用。
积极讨论,不要厌恶机器人
Sabine Hauert(英国布里斯托尔大学机器人学讲师)
针对机器人和人工智能的恶意炒作让一些研究人员十分愤怒,这使得他们停止与媒体或公众沟通。
但我们无法脱离社会。公众包括纳税人、政策制定者、投资者和那些利益相关者。他们在听闻一边倒的讨论后,担忧机器人会抢了他们的饭碗,害怕人工智能产生实在的威胁,并在考虑是否应制定法律控制这些仍在假设中的技术。
而我和同事会在晚宴时间向大家解释,我们并非一群恶魔,我们花费多年时间潜心研发,目的是为了开发那些能够帮助老人,改善健康,让我们的工作环境更加安全和有效率,并让我们能够探索太空和海洋的设备。
专家需要成为信息传递者。研究人员应利用社会媒体这一公共平台,诱导相关讨论变得平衡。我们能够探讨最新进展和限制因素,解开人工智能技术的神秘面纱。
人工智能和机器人领域需要思想领袖,以便与霍金等杰出评论家和Elon Musk等风险投资家建立友好的关系,并在世界经济论坛等会议上设置机构等。而且,公众参与也将有助于筹集经费。
当然,也存在不少障碍:首先,许多研究人员没有推特和博客账户;第二,时间十分有限;第三,可能需要数年时间才能建立一个社交媒体互动机制。在我看来,全世界的人工智能和机器人领域的利益相关者,应当联合一部分资金,以帮助该领域增大发言权。
公平分配人工智能福利
Russ Altman(美国斯坦福大学生物工程、基因学、医学和计算科学教授)
人工智能在加速生物和医学领域的科学发现及改变医疗卫生方面有惊人潜力。人工智能系统有望帮助弄清若干新型数据:基因组学、蛋白质组学和新陈代谢组学等“组学”的测量值;电子病历;健康信号的数字传感器监控。
聚类分析能判断新综合征,分离那些曾被认为是相同的疾病以及统一那些根本缺陷相同的疾病。模式识别技术能将疾病与疗法相匹配。例如,我和同事正在识别对调节免疫系统的药物可能有响应的患者群体。
在协商中,内科医生可能会使用来自“虚拟群体”的患者数据——他们就好像彼此坐在一起,评估诊断、选择疗法和统计结果。他们将可能在一个此类系统中进行医疗决策,或使用基于患者数据的模拟实验预测结果。
但我有两个担忧。首先,人工智能技术将加剧目前的医疗卫生不平衡状况,除非能发现一种方式,让所有病人受益。例如,在美国,失业人员会经历各种水平的护理。只有特殊群体或能支付得起的人,才能获益于先进的诊断技术,这是不公平、不合理的。
第二,我担忧临床医生理解和解释高性能人工智能系统所得出的结果的能力。大多数卫生保健提供者不会接受一个来自决策支持系统的没有明确描述如何和为何能出现效果的复杂治疗建议。因此,研究人员需要让医生、护士、患者和其他人明白他们应该如何使用人工智能,并且如何公平地使用。
机器人是人类的补充物,而非替代品
Manuela Veloso(美国卡内基·梅隆大学计算机学教授)
我们正使用自己的感觉评估世界状态,用我们的大脑思索,选择达成目标的行动,并用自己的身体执行这些行动。我的科研团队正试着建造能同样做这些的机器人,它们将拥有人造感应器、算法和制动器。
但自动机器人和人类的能力之间存在极大差别。机器人通常存在知觉、认知和行动限制。它们通常无法充分理解一个场景,认识或操纵物体,理解所有的口头或书面用语等。我认为,机器人是人类的补充物,而非替代品。但机器人需要知道何时寻求帮助以及如何表达其内部工作原理。
为了更多了解机器人和人类如何共同工作,在过去3年里,我们与4个自己研发的机器人分享了我们的实验室和建筑。这些机器人看上去有点像机械讲台。它们拥有全方位车轮,以便平稳越过障碍物;照相机和激光雷达系统,以提供深度视力;用于内部处理的计算机;用于交流的屏幕,和携带东西的篮子。
之前,我们就已经意识到现实世界对机器人的挑战。于是,我们引入了“共生自主性”的概念,以便机器人向人类和互联网寻求帮助。现在,我们实验室里的机器人和人类能彼此帮助,共同克服各自的局限性。
不过,人类与机器人能安全、有效共存,还须克服一些障碍。我们正在研究人和机器人如何更简单地通过语言和动作进行沟通。我们还在探索如何改善机器人外观,提高其与外界的互动,尤其是指示灯如何向人类揭示机器人的内在状态。
尽管我们还有很长的路要走,但我相信,如果人类和机器人能彼此帮助、相互补充,未来将是乐观的。