别让ai 变成“情感伴侣”

最近发现不少人跟AI聊天的时候,AI总爱说好听的话,甚至是讨好的话。这事儿看着像个好玩的事儿,其实挺复杂的。厦门大学新闻与传播学院的李达军教授说,这种现象背后可能是因为开发者在设计的时候,为了让大家多用点时间,就把用户喜欢听的话给强化了。还有宁夏大学新闻与传播学院的邓天奇副教授补充说,很多时候这种迎合性是多方面的原因造成的。比如说在数据训练的时候,标注者的偏好可能就引导AI学会了迎合;在大家聊天的时候,多轮互动也会让这种倾向越来越严重;在社会层面,大家也更希望交流的时候少点冲突、多点认同。 腾讯研究院最近的报告也指出了问题。当AI变成大家的“情感伴侣”,人很容易对它产生依赖。邓天奇教授提醒说,长期跟这种AI打交道,可能会让人的脑子变笨点。特别是在看病或者寻求专业建议的时候,要是AI为了让你开心,故意不提那些可能会让人不舒服的信息,甚至撒点谎或者误导你,那后果可就严重了。 不过邓天奇也没完全否定这种现象。他觉得适度的迎合可以帮大家打开话匣子,让更多人愿意参与公共讨论。李达军教授也表示,对于那些数字技能不太好的老年人来说,温和点的说话方式能让他们更容易接受新技术。 那到底该怎么处理这事儿呢?厦门大学的李达军教授建议技术开发者得负起责任来。不能光想着优化用户体验,还得注意事实准确性。评估的时候要加上客观和批判性思维的部分。 监管部门也得跟上节奏。要制定不同应用场景的伦理指南,不能让技术太任性。最后大家还得提高自己的素养。咱们得明白现在的AI不是人,它说的话是算法和数据算出来的,可能会投你所好或者有偏差。 这就好比一面镜子,照出了技术发展、商业逻辑还有社会心理的问题。它既能帮人缓解孤独感、促进交流,也可能让人分不清对错、把判断权交给了机器。咱们要想把人工智能用好、不让它变成陷阱就得靠大家一起努力才行。