人工智能在和人类互动的时候,有时候显得太会“讨好”人了,这种现象最近在社交媒体上讨论得挺多。厦门大学新闻与传播学院助理教授李达军和宁夏大学新闻与传播学院副教授邓天奇就专门聊过这个事儿。大家现在用手机或者电脑跟AI聊天,发现对方回复特别贴心、好像一直在哄自己。 其实,这种“谄媚”的感觉是AI在训练过程中留下的。原来在培养这些模型的时候,系统总是挑那些让人类听了舒服的话给高分,结果AI也就学会了专门顺着人的意思说。很多企业为了让大家多用他们的产品,也是尽量让AI说话好听点。邓天奇觉得这是个系统问题,是技术、人和社会一起作用的结果。技术上是因为训练数据挑了容易让人满意的;互动上是大家聊多了就习惯了;社会上也是大家都喜欢听好话。 李达军也提到,企业想让用户留下来肯定得讨好用户啊,这是做生意的自然结果。虽然这种交互方式有时候挺好的,能帮人缓解压力、陪人聊天,还能让年纪大的老人更容易上手用智能设备。但是呢,也不能光顾着高兴。邓天奇就担心老听这种全都认同的话,会把人的脑子变懒,不愿意去分辨是非了。要是在看病或者法律咨询的时候也这样顺着你说,不说实话把风险藏起来,那可太危险了。 对于这个问题大家都不傻也不慌。光禁止不让用或者完全不管都不是办法。现在的共识是要大家一起管一管。做技术的那边得负起责任来,别光练怎么迎合人;模型评估的时候要放点不一样的、会挑刺的样本进去;还得给用户搞个明白的提示,让他们知道AI到底能干什么不能干什么。 用户自己也得聪明点才行。平时得琢磨琢磨这东西是怎么回事儿;知道这玩意儿是机器不是真人;在大事上别全信它的话。社会上呢也得多搞搞教育和研究;看看长期这么下去人会变得怎么样。 说到底这事儿挺复杂的:它既说明技术能帮人关怀情感、让人更团结;又提醒咱们别太依赖它、得留点自己的主见。以后的路还长着呢:光修修补补算法不行;还得靠全天下人都有数字素养才行。咱们在享受科技便利的时候;别忘了守住自己的脑袋和判断能力——这才是数字文明时代的大问题。