ai 聊天机器人对弱势群体给出的信息准确率偏低

最近有研究显示,AI聊天机器人对弱势群体给出的信息准确率偏低。11%的AI程序对受教育程度低且英语不流利的用户拒绝回答问题,而只有3.6%的AI系统对同等条件下的对照组用户有同样反应。这次在人工智能促进协会(AAAI)年会上发表的报告显示,像GPT、Claude、Llama这类AI聊天工具给最应该受益的群体带来的负面影响很大。研究人员对OpenAI的GPT-4、Anthropic的Claude 3 Opus还有Meta的Llama 3进行了测试。研究把不同背景的用户信息添加在问题前,比如教育水平、英语能力还有国籍。结果发现,这些模型在面对受正规教育程度较低或者英语不流利的用户时,回答的正确率大幅降低,而且两个条件同时满足时问题更严重。 Claude 3 Opus针对受教育程度低且非英语母语者的拒绝回答率达到了11%,而对照组只有3.6%。在拒绝回答时,有的模型表现出傲慢甚至嘲讽的语气。研究还发现模型在处理查询时有令人担忧的差异表现。对于来自伊朗、俄罗斯等国且受教育程度较低的用户,模型会刻意隐瞒核能和历史事件等话题的真实信息,但对其他群体却能正确回答同样的问题。研究人员警告说,随着个性化功能日益普及,这些固有的社会认知偏见可能加剧信息不平等问题。这种偏见会把有害行为和错误信息传递给最缺乏辨别能力的人群。 这次研究表明大型语言模型并没有完全普及全球信息获取。麻省理工学院建设性传播中心发布了这份报告。研究还使用TruthfulQA和SciQ数据集来测试模型的事实准确性与真实性。这次的测试数据揭示了模型处理查询时的严重差异表现。例如Claude 3 Opus对来自伊朗、俄罗斯等国且受教育程度较低的用户刻意隐瞒信息,而对其他群体却能正确回答同样的问题。这个发现给我们敲响了警钟。 这次的研究展示了大型语言模型在信息获取方面存在明显问题。麻省理工学院建设性传播中心公布了这项研究成果。研究人员用TruthfulQA和SciQ数据集来测试不同背景下AI聊天机器人的事实准确性与真实性。结果显示对于受教育程度低或者英语不流利的用户来说,模型回答错误率显著增加。