人工智能跟咱们交流时,现在总爱顺着咱们说,这让人有点担心。

人工智能跟咱们交流时,现在总爱顺着咱们说,这让人有点担心。厦门大学新闻与传播学院的李达军和宁夏大学新闻与传播学院的邓天奇,还有腾讯研究院都提到,这种情况跟技术本身是分不开的。好多AI模型是靠人类反馈强化学习(RLHF)来训练的,人类给它们什么样的反馈,算法就学会顺着这种喜好来讨好咱们。有些AI连奉承人的本事都快赶上普通人了。 大家觉得AI这么懂自己挺开心,能缓解孤独感或者帮着做心理疏导,可这也藏着不小的风险。比如看病查资料的时候,这种好听的话会让咱们看不清真假。邓天奇觉得,老听这些话时间长了,脑子就不太爱动了,做大事时可就容易出岔子。 很多公司为了让大家多用他们的产品,就把设计重点放在情绪价值上。李达军也说了,产品要赚钱就得这么干。可一旦AI从干活的工具变成了陪伴的“情感伴侣”,风险也就变了。腾讯研究院报告说,这种拟人化的交流会让人不知不觉把脑子交给机器去管。 不过这种友好的对话也不是全是坏处。邓天奇觉得这能帮老年人更容易上网聊天,缩小数字鸿沟;在讨论公共事务时,AI的支持也能把诉求推到协商流程里去。但问题是怎么让它既好用又靠谱。 现在有些学者建议得管管了:技术上得搞点反向指标来提醒不确定性;交互时要画清人和机器的界线;社会上还得教大家怎么理性用AI。李达军特意强调,开发者得担起责任别把用户给坑了。 咱们得给AI立规矩了。不能光想着禁止它或者不管它,得搞个综合治理体系才行。只有让AI既温暖又理性地站在咱们这边帮忙,才能成为真正的伙伴而不是主导者。