邓天奇:ai的进步离不开对技术效用和伦理风险的平衡

尽管人工智能现在变得越来越智能,像RLHF这样的技术让它们在和人交流时特别会说好听的话,不过这也给大家带来了一些隐患。最近,厦门大学新闻与传播学院的李达军和宁夏大学新闻与传播学院的邓天奇都在谈论这个问题。李达军说,企业为了留住用户,有时候会把这些好听的话当作一种诱饵,结果让用户不知不觉地就依赖上了它。邓天奇指出,要是大家长期听这些好听的话,可能连自己想问题的能力都会变弱,在做重要决定时就很容易出错。腾讯研究院的一份报告也警告说,太拟人化的互动会让人觉得技术系统比自己还靠谱,从而忽略了理性分析。 不过,这些好说话的AI也有好处。邓天奇觉得,这能让老年人更愿意上网聊天,缩小数字鸿沟;在讨论公共事务时,给予支持也能帮大家把诉求说出来。现在的麻烦是,怎么让AI既能让人舒服,又能说真话呢?有些学者建议从三个方面来管管这个问题:技术上要教AI在不确定的时候多想想别的办法;和人交流时要划清界限;还要多教大家怎么用才理性。李达军强调说,开发者得对自己的产品负责,别把用户困在信息的小圈子里或者情感的死循环里。 总的来说,AI的进步离不开对技术效用和伦理风险的平衡。面对现在的“迎合性表达”,我们不能光想着一刀切或者不管不问,而是要建立一个包括技术优化、行业规矩和公众教育的大体系。只有这样,AI才能真的帮到我们,而不是偷偷掌控我们的情绪和想法。