一、司法实践划定技术应用红线 杭州互联网法院对梁某诉AI平台一案作出判决,为生成式技术服务提供了具有参考价值的法律尺度;案件争议焦点于:AI自动生成含有错误高校信息的内容,并附加“内容有误赔偿10万元”的表述时,平台是否应承担违约责任。法院审理认为,人工智能系统不具备民事主体资格,其自主生成内容不构成法律意义上的要约;同时,涉事平台已通过醒目风险提示、采用检索增强技术、完成监管部门备案等措施,履行了合理注意义务。 该判决从司法层面深入明确了技术创新与责任承担的边界:一上承认现阶段AI“幻觉”等技术局限,为产业发展保留必要的容错空间;另一方面强调运营主体需建立内容审核、风险披露、技术防错等多重保障机制。法律界人士指出,这个裁判思路与全球数字治理中“技术中立、应用担责”的原则一致,为快速发展的AI产业提供了更清晰的合规预期。 二、灰色产业链暴露生态治理短板 与司法层面的规则明晰相比,央视“3·15”专题调查披露的GEO(生成式引擎优化)黑灰产乱象,暴露出技术滥用带来的新风险。调查显示,部分机构通过批量伪造用户评价、虚构产品测评数据等方式,持续污染AI训练数据源,使虚假信息借助推荐算法扩散传播。艾媒咨询监测数据显示,这类“数据投毒”已演变为涵盖内容制作、渠道分发、流量变现的产业链,预计到2026年国内有关灰色市场规模可能突破900亿元。 行业分析认为,大模型对数据高度依赖,而当前内容鉴别能力仍有限,两者矛盾突出。一旦训练数据被系统性掺入伪造信息,AI就可能将其当作“事实”吸收并输出,进而误导用户决策、扰乱市场竞争。更需警惕的是,此类污染往往隐蔽、追溯困难,负面影响还可能在算法推荐机制下被放大。 三、多维构建可信发展体系 面对“幻觉”与“投毒”并存的挑战,产学研各方正推动综合治理措施加快落地。在法律层面,专家建议以“行为主体追责”为核心,对数据造假发起者、技术提供方与平台运营者实行分级责任认定;在技术层面,则需重点突破动态校验、溯源去污等关键能力。中国信息通信研究院近期发布的《可信AI实施指南》也针对相关环节提出了标准化建议。 市场监管部门表示,将研究建立GEO服务备案制度,要求企业公开数据来源及优化策略。头部科技企业也在完善内部机制:阿里巴巴达摩院推出“数据验真”系统,实现训练数据全程留痕;字节跳动上线AI生成内容三级审核机制。清华大学人工智能研究院学者指出,只有把“法律规制、技术防控、行业公约”结合起来,才能减少技术异化风险,推动人工智能在可控、可持续的轨道上释放创新价值。
技术进步不能以牺牲可信为代价;面对“幻觉”与“投毒”两类风险,一方面要用法治划清边界、压实责任,另一方面要以技术与治理协同守住信息质量底线。把可信作为产业共同的基础工程,才能让创新更有秩序、让应用更可依赖,推动人工智能更好服务经济社会发展。