最近啊,杭州互联网法院判了一个挺有意思的案子,是全国头一回因为“AI幻觉”打官司。咱们2025年6月的时候,杭州有个叫梁某的人就遇上了这种事儿。他用某个AI平台查高校的校区位置,结果系统告诉他的信息全不对。梁某一看这不对劲儿,就去找平台理论。你猜怎么着?AI不光不承认错误,还特别硬气地说,“要是内容有误,咱们就赔10万,我带你去法院告。”后来梁某拿出了官方文件一对比,AI才松了口,“哎呀,是我搞错了。”梁某这才明白自己是被忽悠了,就把平台给告了,要求赔偿9999元。 法院最后判的是平台没责任。法官说AI又不是人,没资格当民事主体。它随口说的那些承诺,根本不能算是平台本身的意思。判决书里还提到,平台其实早就把风险提示得很清楚了,比如在应用入口、用户协议还有界面上都写了AI可能会出错。而且平台还用了一些技术手段来提高准确性,已经尽力了。虽然梁某输了这场官司,“AI幻觉”的问题确实得重视起来。 专家分析说现在的大模型都是靠概率预测生成文字的,它的“脑子”里装的东西就那么多。要是你问它不熟悉的领域,为了能把话说通顺,它就会胡说八道一些虽然逻辑自洽但完全不现实的东西。这种“一本正经地瞎编”特别像人类说话的方式,很容易让人上当。更吓人的是这东西还可能被坏人利用,伪造视频、发假新闻、冒充亲友骗钱的事多得是。 咱们用技术的时候可得长点心眼儿。AI再好也是工具,不能把它当神仙看。做重大决定前最好多找几个人核实一下。对于做服务的公司来说,这次案子也定了规矩:你们得过滤违法内容、明显提醒功能有缺陷、还得不断改模型让它更靠谱。咱们国家现在也在完善相关管理办法和伦理准则,就是为了让AI发展得可控可信、责任分明。 这案子虽然判了,但它提醒咱们的事还没完。以后AI还会进化得更厉害,法律和咱们的认知也得跟着变才行。只有在法治的轨道上跑稳了,AI才能真正帮我们过日子,而不是变成藏在背后的麻烦。