陪伴机器人,当真你就输了?

段伟文 原创 | 2020-06-30 08:51 | 收藏 | 投票 编辑推荐
关键字:机器人 

段伟文(中国社会科学院)


自信息技术出现以来,真实和虚拟的界限一再被打破。特别是随着社会机器人的发展,各种陪伴机器人开始出现在人们的生活中,也许用不了多久,每个人都要认真思考如何与机器人相处。从科技时代不断加速的总体态势来看,人们或许等不及拿出周全和完善的技术方案,就会让各种机器人产品和服务涌进我们的生活世界,每个人都有可能成为这个全新魔法的试验品。在冲向那美丽的新世界之前,让我们来看下可能出现的若干问题与场景。


人能与机器建立真实的交互关系吗?


从图灵提出的图灵测试不难看出,人工智能是对智能的功能模拟。各种陪伴机器人,不论是无形的智能软件或智能音箱,还是将来可能出现的外形上可以假乱真的人形机器人,都是在功能上可以与人交互的智能体或者行动者。智能体这个词看起来很抽象,但你在用手机上的应用程序抢高铁票,或进出机场、高铁站通过人脸识别设备的时候,不难发现,你的生活已越来越多地经由这些智能机器也就是所谓的智能体与世界相连接。而下一步,智能机器将在你的生活中担当起服务者、照看者、陪护者乃至伴侣的作用。


在此呼之欲出的泛智能体社会的愿景中,首先遇到的一个的伦理问题是,人类与机器可以建立一种真实的关系吗?或者说,人如果将这种关系视为真实关系会不会造成某种不可忽视的危害。


近来,在对这个问题的相关讨论中,当代哲学家马丁·布伯对“我-你”关系与“我-它”关系的区分成为重要的思考起点。大致的意思就是说,人与陪伴机器人的关系究竟应该像“我-你”关系那样,建立在相互平等与尊重的基础上,还是可以像“我-它”关系那样,仅仅把陪伴机器人看成我所使用的工具。从这种二分法出发,不看好人与陪伴机器人关系的人,很容易论证人与机器恐怕很难形成建立在“我-你”关系之上真实的交互关系,也就是说两者无法像人与人那样真正地互动沟通、亲密交流乃至相互爱恋。


毋庸置疑,由于反对者显然不可能阻止陪伴机器人的出现,与其纠结于人与机器的交互关系的真实性,不如务实地探讨如何面对儿童陪伴机器人和老年陪护机器人等实践层面的挑战。例如,如果儿童过多的依赖陪伴机器人,除了可能被机器人“带坏”之外,会不会剥夺或削弱儿童从亲子互动中得到呵护与关爱的机会,甚至使儿童像狼孩一样丧失建立亲密关系与社会关系的能力。同样地,有人质疑,在明知对方是机器人的情况下,老年陪伴机器人非但不可能从根本上解决老人对人际情感的需要,甚至会强化其孤独感。


你可以任意摔打机器人娃娃吗?


持平而论,人与陪伴机器人之间的交互关系,既不全真也不全假。这个答案看起来有点耍滑头,但在现阶段,这种不置可否有助于更为开放地展开有针对性的思考。比方说,当你心情不好的时候,可以对你的机器人娃娃大打出手吗?这算不算未来可能出现的新型家暴呢?对这个问题的回答,似乎还是要回到前面说的“我-你”关系与“我-它”关系的区分。换句话来讲,陪伴机器人应该像人自身一样被当作道德考虑或关怀的对象吗?人会不会把机器人当“人”看?从感知的角度来讲,对于小冰、小度之类的无形的聊天机器人,人们需要发挥想象力脑补“她们”的“人格”,而人形机器人的“身份”要相对容易把握一些。有人借助法国当代哲学家列维纳斯的理论,指出应该赋予机器人一张可以识别和区分的脸,以便人们更容易将机器人视为应该道德地对待的“他者”。这就要求,将来的各种陪伴机器人各自长着各自的脸,有着独特的眼神。


但迄今为止,这类哲学思考会遇到的一个麻烦是,机器人没有意识,甚至并不真正知晓它自己是机器人,它的表情和所流露出的情感不过是情感计算的结果——机器人根据人所设计的智能识别程序一边捕捉人的表情和情绪,一边作出恰当的表情与情绪反应。在机器人没有自我意识之前,无论你如何对待它,其所呈现的喜感或悲伤都是人设计给人看的,机器人自身并没有可以真实感受喜怒哀乐的内心。因此,你可不可以任意摔打机器娃娃,目前并不直接涉及交互意义上的人与机器人之间的伦理关系,而主要取决于人们在道德上是否接受这种行为。一方面,在多大程度上,人们会认为故意“虐待”机器人是可以接受的或无需关注的;另一方面,在何种限度上,人们又会觉得哪些对机器人的故意“虐待”或更“暴力”的行为在道德上是不可接受的,甚至应进一步对其施加哪些合理的道德限制。


必须指出的是,这些道德限制需要依据的事实基础目前尚不明晰。就像电子游戏中的暴力行为究竟是有助于不良情绪宣泄还是会强化暴力倾向一样,是否应该限制对机器人的“暴力”恐怕一时很难有明确的结论。一般而言,各国对陪伴机器人的治理和监管以不限制其发展为原则,科技巨头对陪伴机器人的负面后果的研究兴趣往往以不影响其应用推广为前提,大多数使用者也很难理性地反思对机器人“施暴”可能对其自身带来的身心危害。简言之,当前这一问题还处在观念讨论阶段。从避免技术滥用的角度来看,应该展开必要的技术社会学和技术人类学研究,在具体场景中发现可能出现的问题的细节,探寻可行的伦理规范,并使其渗透到相关产品的设计、应用和使用等全生命周期之中。


乖巧可爱的机器人真是你想要的吗?


机器人通常以机器的方式模拟人的言行,并通过不断改进使其越来越迎合人的需求。这就带来了两个层面的问题。一方面,人在与机器的交往过程中会受到机器的行为方式的影响;另一方面,为了使机器迎合人,机器人的设计者往往会在洞察人的心理的基础上令机器人在感情上更有吸引力。


第一方面的影响往往是无形的,但又确实存在,有时甚至会影响人的“硬件”。很多年前,科学社会学家雪莉·特克就遇到过有人自以为是机器的心理疾患。哲学家们喜欢将这种现象称为技术对生活世界的殖民化。以GPS导航为例,比较前卫的巴黎出租车司机习惯使用导航仪,相对保守的伦敦出租车司机主要借助记忆导航。一项为期三年的抽样比较研究表明,巴黎出租车司机大脑中负责测绘时间和空间的皮层出现萎缩,有的人不仅无法在真实时空中确定正确行车路线,甚至罹患了某种阅读障碍症,还好这些症状并非不可逆。


另一方面的影响则可能较为显著,有人甚至担心这种“软件”层面的破坏会导致人类社会的崩溃。虽然这种反乌托邦前景未必会成真,但至少有两个方面的问题值得关注。其一,陪伴机器人可能会被设计得越来越乖巧,甚至慢慢学会对人讲一些善意的谎言。这可能会使人觉得机器人同伴更贴心、更容易沟通,由此产生的情投意合的假象,会让人更愿意与机器人同伴相处。有的人甚至会对机器人上瘾,而视真实的人际交往与亲密关系为畏途。而且,一旦机器人撒谎的能力得到开发,就难免出现陪伴机器人包庇人类不当行为或违法行为的情况。当然,有的哲学家可能会想,是不是可以做个不那么顺从的辩论机器人,这样就可以跟机器人一起讨论哲学,但如果真的制造出来了,修养不够的哲学家用户难说不会因为不如机器人机敏而懊恼不已。


其二,机器人伴侣的设计以对人的情感的接受为出发点,很可能使得人与机器人伴侣的互动更有吸引力,更能满足其对欲望的想象,加之与游戏及虚拟现实的结合,难说不会沉溺其中而不能自拔,最终很可能破坏以情感关系为纽带的人类繁衍与文明发展的基础。这一担忧究竟是不是杞人忧天,无疑又回到了人与机器人的交互关系乃至亲密关系的真实性这个问题,如人与机器人的亲密关系会不会削弱人与人之间形成亲密关系的能力?这种行为改变会不会导致与之相关的人的“脑回路”的退化和改变?而一旦意识到这种亲密关系的虚拟性,人对情感的态度会不会走向彻底虚无?


虽然有批评者认为,与性爱机器人的情爱关系不过是传统性交易或性暴力在机器上的延伸,是男权主义和厌女症的表现。但其倡导者则指出,一方面,机器人技术至少可在功能上复制情爱活动及其心理吸引过程;另一方面,人类在情感上具有将动物、物体和机器拟人化的心理倾向。在他们看来,人与自己物种以外的实体建立依恋或情爱关系是人类在技术时代的新进化,而机器人对人情感的迎合与人对机器产生的拟人化心理倾向的结合,将使人与伴侣机器人之爱成为新的情爱方式。


尽管相关的技术尚未真正实现,我们依然可以对其可能性作出必要的反思。或许陪伴或伴侣机器人的未来有无限种可能,是福是祸一时难以预测。但从意图上讲,一开始就应该想办法限制那些别有用心的设计。因此,至少从伦理设计的角度来看,不应该制造那些蓄意撒谎的陪伴机器人,同时,杜绝那些以愚弄和操纵人的情感为目的伴侣机器人。


就每个人而言,在特定情况下,伴侣机器人可以作为学习和实践亲密关系的辅助工具,也可以在情感受伤时作为临时的抚慰方法;但在此过程中,你应该持尝试性与反思性的态度,尤其要警惕由此带来的自弃与沉溺。技术既不是牛魔王,也不是白骨精,面对技术这个孙猴子给你挖的坑,要多一些娱乐精神和游戏态度。你甚至不妨通过自嘲和幽默的方式,使机器人伴侣成为你参透情感和抛却烦恼的契机。比如,面对机器人同伴忽闪多情的眼神,你可以一边吟诵“此情可待成追忆”,一边跟机器人一起学习机器人迷离眼神的设计原理。在深度科技化时代,科技如空气一样弥漫周遭,为了不被其裹挟而迷失自我,每个人都应该学会与技术独自相处之道,而这种新的自我调节方式或自我伦理,其实就是当下每个人类个体最需要参悟与修行的禅机。


当然,这个话题还涉及很多有趣的问题。比如,如果人与机器真的相爱恋,是不是得让机器人学会梦见电子羊?机器人的性别和角色分布会不会带来机器人的社会性别问题?还有,在机器自我觉醒之前,机器人自身会不会以各自的身份形成自己的群体与社会,并由此觉知机器人与人的差异?或者说,在未来的世界里,人与机器会融合共生,成为彼此难以区分的生命存在……

个人简介
中国社会科学院哲学所研究员,中国社会科学院科学技术和社会研究中心主任
每日关注 更多
段伟文 的日志归档
赞助商广告