把这篇研究放到2026年举行的第46届国际信息系统会议上看,大伙儿都想看看AI能不能帮忙纠正人们心里的偏见。研究者这次特别把目光对准了ChatGPT这种对话式的生成式AI,想弄明白它能不能帮咱们提高做决定的质量。这是头一回把实证数据拿出来说话,证明ChatGPT确实能当一把靠谱的“去偏见”工具。实验是这么做的:找来434个人,让他们先跟两个版本的ChatGPT聊了聊。一种是标准版本的系统提示,另一种是故意给点“思考感”的提示。结果挺有意思,只用标准提示的时候,大家脑子里的偏见明显少了;可要是加了那让人思考的提示,效果反倒没那么好。不过话说回来,哪怕那种让人多琢磨琢磨的方法不太灵验,也说明了系统提示到底是怎么回事,能让决策者做出不一样的选择。现在AI技术发展得太快了,特别是像ChatGPT这种能处理海量信息、还能突破人脑极限的工具,慢慢就成了咱们做决定时的好帮手。虽然以前很多去偏见的方法挺费劲儿也挺难搞懂,但像ChatGPT这样简单配置一下,说不定能给咱们提供一个省钱又好用的新路子。这篇文章不光是为了说明道理(结合了有限理性理论和信息系统理论),还实实在在给出了优化提示的建议。虽然以前大多是在纸上谈兵,但这次通过大样本的定量实验(尤其是针对ChatGPT),咱们终于系统地分析清楚了它在减轻认知偏差中的作用。研究员们特别希望这些发现能给以后的培训和咨询指条明路,让咱们在面对那些莫名其妙的偏见时能应付得更得心应手。