即时新闻

如果未来机器人有了自我意识……

来源:羊城晚报     2019年11月23日        版次:A10    栏目:    作者:克莉斯汀

     《我,机器人》剧照

     《我,机器人》剧照

    

    

  图/视觉中国

  □克莉斯汀

  日前落幕的第十七届中国国际农产品交易会上,一款用于畜禽养殖的可“鸡脸识别”的机器人吸引不少人的目光。专家介绍,通过机器人的前置摄像头监控鸡的眼神和鸡冠,不仅可以记录和分析其健康状况,还能减轻人工逐只巡检的压力。

  人工智能的确越来越接近平民生活,而它们还在不断“进化”。最近我国天津大学精仪学院黄显教授团队成功研发出液态全柔性智能机器人,在“形体”上,以超小型、全柔性、可编程控制的姿态,能实现在不同环境条件下运动、变形和传感测量的功能。而日本研究人员近日让人工智能机器人挑战今年日本“高考”英语满分为200分的笔试题竟获得了185分的高分,又在“智力”上有了大幅度提升。日本国立情报学研究所的研究人员称,如今人工智能已在很大程度上能模拟人类思考以及解决问题的能力。

  难怪机器人研究权威专家、美国哥伦比亚大学教授Hod Lipson会十分肯定地说:未来机器人将有自我意识。如果这一天真的到来,我们该如何面对?又是否还可以信任这些可能将比人类更“优秀”的机器人呢?

  A

  机器人学习中存在“黑匣子”

  Hod Lipson教授是在近期的腾讯科学WE大会期间对媒体谈到机器人会拥有自我意识这个问题的。他认为,这个问题未来不可避免,机器人迟早会获得自我意识,这只是时间的问题。但这只能说明一件事:人类到时已拥有了一种非常强大的技术,至少人类知道机器人能做什么或不能做什么。

  他打了个比喻:机器人就像火一样,我们知道它是强大而危险的,所以我们在利用它时,会确保将它用于好的事情上。他认为自主意识的机器人带来的好处将会远远超过它的风险,而它们会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,因此人类要想办法让机器人自己来照顾自己——它们就必须有自我意识。

  或许大多数科学家都对此持乐观态度,他们应该早就思考过这个问题。因为现在已有大量的机器人在进行强化深度学习,被输入庞大的数据库信息,然后通过固定的内部算法模式,自主进行数据的综合分析与选择性复制,从而实现“自主创作”,并完成更多人类无法预期到结果的任务。但有科学家们指出:机器人在强化学习的过程中,可能存在一个黑匣子——我们并不知它究竟学到了些什么。它可能学习了人类需要它学习的东西,也可能同时在学习更多人类不知道的东西。

  比如美国布朗大学最近公开了一款可以自主学习写字和绘画草图的机器人,它通过深度学习,自己可以画出一幅以《蒙娜丽莎》为原型的人物简笔画。它不需要程序员给它输入具体的编程模式,只需要给它提供相应的庞大数据库,让它自我学习即可。布朗大学机器人专家Stefanie Tellex表示,这种机器人在学习写字时,会通过分析所学字体的结构、笔画顺序,准确计算出自己下笔时的每一笔的走向与距离——这与人类儿童在最初学习写字时的过程其实非常相似——它通过不断地学习与分析,最终就会形成了自己的“创作风格”。

  我们不能否认这个过程中它可能会慢慢学会自主思考,最终拥有自我意识,毕竟它们完成学习的速度比人类要快太多。它们不需要像人类那么漫长的进化过程,就已能学习并完成目前人类现实生活当中的各种任务,甚至包括一些人类目前都无法完成的任务。

  或许还有更严峻的事实等着我们:有一天机器人还学会向人类隐藏它们已拥有自我意识的事实。

  B

  “好奇心”可能是AI产生意识的表现之一

  从“双11”的智能客服、智能分拣货物机器人,到新上路的无人驾驶大货车,智能机器人与我们的生活关联得越密切,我们越需要更充分地了解机器人,关于机器人的各种安全措施设置也变得比以往更加迫切。

  其实早在2017年的萨里大学第18届年度自助机器人系统大会上,英国牛津大学计算机教授Alan Winfield和Marina Jirotka就曾提交过一份关于机器人“道德黑匣子”的论文。研究者们提出应该在机器人内部装上一种类似于飞机上的“黑匣子”的“道德黑匣子”,以此来监控机器人,了解机器人当时做出决定的原因以及主动性程度。布里斯托尔英格兰西部大学机器人伦理学教授温菲尔德博士说:“这些事故风险是没有办法绝对避免的。但如果事故调查过程中没有任何内部数据记录当时机器人的行为,那么这种调查将会变得非常棘手。”

  但怎样来定义这个道德黑匣子?怎样确保机器人不会自主修改黑匣子里的内容?这些问题仍未能得到很好的解决。

  今年9月,腾讯AI Lab联合《自然》杂志科研中心及其子刊《自然-机器智能》和《自然-生物医学工程》共同举办了世界首届“Nature Conference-AI与机器人大会”。在大会发布的“AI与机器人的42个大问题”报告又一次深入探讨了对人、AI与机器人未来的长远思考,期望能找到通用人工智能和机器人探索之路上的人类将会遭遇的重要问题及解决办法。

  这“42个大问题”中就包括有“AI能否具有自我意识?”报告中提到,“意识”到目前为止仍还是一个没有得到公认的明确定义的名词,我们对自身意识产生的原因还知之甚少,又怎么去回答机器人能否具有意识的问题?2017年一篇来自《Science》(《科学》杂志)的论文将意识划分出三个层次:第一层是指人脑中无意识的运算,比如人脸和语音识别;第二层涉及根据信息、思考和可能性进行决策的能力;第三层则涉及所谓的“元认知”,即认识到自我的能力。他们认为“自我意识能帮助人们了解自己知道什么以及不知道什么,进而导致好奇心”。如果照这样的划分,目前的AI模型已经能在第一层面上取得超越人类的表现了,并且在第二层面上也进展颇顺。该论文也认为目前已有一些AI甚至实现了第三层面上的一些可能,比如一些模型能够监控自己学习解决问题的过程。

  但意识究竟将如何产生?目前仍没有答案。它可能源自特定的神经结构,比如脑细胞的神经元能够产生意识。它也有可能源自系统与外部的交互过程。物理学家Max Tegmark认为意识是在以某种复杂方式处理时信息的感觉方式。AI在日常生活中的进一步应用,就有可能产生这一类别的某种意识。它还可能源自其自身系统的复杂度。因为有研究者认为,一旦一个单一的有序动态系统达到一定的复杂度,意识就会自然而然地涌现。显然,AI系统的复杂度一直在迅速提升,这一理论或将逐步得到验证。

  “42个大问题”中还有另一个问题“AI能否具有好奇心和创造力?”说明“好奇心”可能会是AI产生意识的表现之一。

  有人认为,好奇心是自我意识的一种延伸,同时也是创造力的基础。如果AI能够独自创作,它就可能在产生自我意识。我们知道,谷歌的DeepDream系统已能够通过对图像进行刻意处理而创造出“梦幻般”的图像结果;2018年,一幅由生成对抗网络(GAN)生成的画作已在巴黎以432500美元的价格出售;AI还早已被用来生成音乐和场景(虚拟现实或游戏)……这些是否能说明AI已在产生自我意识呢?

  也有人并不认同这种说法。他们认为创造能力并不完全需要自我意识,即使完全依照本能行事,生物体或机器人也能表现出创造能力。何况,AI目前的创作基本上还只是对已有数据的组合或加工,谈不上自主创造。

  那AI是否会对世界产生好奇心呢?从另一种角度来说,当它们进行强化学习时,会根据在学习环境中设定的一些奖励机制来不断调整自己的学习方向,从而最大化自己所获得的奖励。由此它们需要具有不断去探索未知环境的能力,这种探索的需求其实也可视为一种好奇心。但在这种探索能力支配下,未来AI是否能真正创造出前所未有的事物,这一点的确有待验证。

  C

  规范机器人研发和行为势在必行

  人类可能通过20年的学习才能成为一个优秀的医生,而机器人或许只要几天甚至几个小时的强化学习就可以开诊行医。我们谁也不知道机器人的研发与学习速度可以快到什么程度,我们也不会停止让机器人进行更多的深度学习。既然我们相信机器人迟早会有自我意识,或许尽早规范机器人的研发和行为能更有效地将一些问题向良性发展方向引导。

  科幻小说家阿西莫夫在他的小说《我,机器人》中首次提出了著名的“机器人三定律”:“第一,不伤害定律:机器人不得伤害人类,也不得见人受到伤害而袖手旁观;第二,服从定律:机器人必须服从人的命令,但不得违反第一定律;第三,自保定律:机器人必须保护自己,但不得违反一、二定律。”后来他又在《机器人与帝国》一书中将此“三大定律”扩张为“四大定律”,第四定律又被称为“第零法则”:机器人不得伤害人类整体,或坐视人类整体受到伤害。

  但AI真的能按此定律来执行所谓的人类的道德伦理规范吗?毕竟这种道德规范很难以编写成计算机代码或其他任何能被机器人理解的“语言”。而且就算是人类在执法时也难做到真正的“公正”,机器人又如何去定义“公正”?

  所幸近年来“自然语言处理”(NLP) 技术突飞猛进,让我们离AI真正理解人类语言的目标又更进了一步。我们有可能开发出一套确实可行的现代版本的“阿西莫夫机器人定律”。比如可参考维也纳应用艺术博物馆负责人 Christoph Thun-Hohenstein 提出的三条定律:1、智能机器人必须为人类的共同利益服务,并帮助我们人类实现生态、社会、文化和经济上可持续的生活;2、智能机器人只能在与人类相容的程度上替代人类工作者,从而帮助人类创造有尊严、文化和创造性的自我实现的有意义的生活——除非该规则与规则1冲突;3、智能机器人必须被设计为合作型的自学习机器并且始终会协同式运作——除非该规则与规则1和2冲突。

  英国牛津大学研究员Vyacheslav Polonski在一篇文章中总结了设计更道德的机器人所应遵循的几个指导方针也值得参考:明确定义合乎道德的行为;让大众参与到人类道德的定义之中;让AI系统更加透明。

  眼下,AI仍像是人类生命周期中的婴儿,基本上还处在人类的控制之下。但随着技术的飞速发展,AI技术本身的复杂性和应用范围都会经历爆炸式增长,未来的AI系统会成长成什么样子,其实我们完全无法预料。

  美国哥伦比亚大学机器人专家Hod Lipson曾表示:“在计算机的算法面前,我觉得我们正在丢失越来越多阵地。”但大家都在积极地寻找对策。有研究人员指出,真实世界就是非常复杂的,或许接受机器人深度学习后的复杂表现,也是我们必须要接受的一种现实。