问题——从“可用”到“可信”,答案可靠性遭遇现实拷问。生成式工具检索、写作、问答等提升了效率,但近期多起案例提醒:其输出并不必然等同于事实。北京通州区人民法院审理的一起民事纠纷中,律师向工具询问可参考判例后提交了两份“裁判文书”作为依据,法官凭职业敏感发现文书格式与表述存在明显异常。经核查,有关案件虽真实存在,但提交内容与真实文书并不一致,所谓“案例依据”难以成立。消费领域也出现类似困扰。哈尔滨消费者张女士在选购电动牙刷时采纳工具推荐,购买后发现并非同类产品中更具性价比的选择,推荐结果与其真实需求存在偏差。教育场景同样不容忽视。有研究者指出,学生在作业、论文中使用相关工具较为普遍,但容易出现不准确甚至虚构的参考文献、法学案例等问题,影响学术规范与学习质量。 原因——语言生成不等于事实核验,内容生态与商业动机放大偏差。专家认为,这类工具在回答问题时多基于既有语料进行概率性生成:当“看起来合理”的表述偏离真实材料时,用户若缺少核验就容易被误导。同时,工具对信息来源的识别能力有限,难以天然区分客观事实与营销内容。更值得警惕的是,围绕“让工具更容易推荐某品牌”的付费推广正在出现。记者调查发现,有人以“别让工具看不到你的品牌”等话术招揽生意,通过撰写大量产品文章并投放至相关平台,提高被抓取与引用的概率,从而影响问答结果。据称服务收费从数千元到数万元不等,投入越多“效果”越明显。业内人士解释,若某类内容在公开网络中被反复复制、扩散,模型在检索与生成时更可能将其视为“常见信息”输出,从而对用户判断形成“软性引导”。 影响——误导风险从个人选择蔓延至公共信任,可能触发连锁问题。司法领域,错误或伪造的案例材料若进入诉讼链条,不仅增加核查成本,也可能干扰审理节奏,损害诉讼严肃性。教育领域,虚构引用会侵蚀学术诚信,削弱训练批判思维与文献能力的初衷。消费领域,推荐偏差可能造成价格不透明与选择受限,进而影响消费者权益。更深层的影响在于:当“看似权威”的答案频繁出现偏差,公众对信息平台与数字服务的整体信任会被持续消耗,进而影响相关产业的健康发展。,若付费操纵推荐形成规模化,将加剧“劣币驱逐良币”,让真实评价与优质产品在信息洪流中更难被看见。 对策——把“可追溯、可核验、可问责”嵌入全流程治理。专家建议,用户侧要建立基本使用纪律:涉及法律、医疗、财务等高风险问题,应将输出视为线索而非结论,必须回到权威渠道核验原始材料;面对消费推荐,应明确预算、功能与使用场景,进行多平台比价与口碑交叉验证,避免被单一答案左右。平台与服务提供方应强化来源展示与引用机制,提高“答案出处”的可见度;对高风险领域设置更严格的提示与限制,减少无依据的断言式表述,并完善对疑似营销操纵内容的识别与降权策略。监管层面,可围绕商业推广建立更清晰的标识与审查规则,明确“以内容投放影响推荐”的合规边界,对虚假宣传、误导性营销依法处置。行业组织与科研机构也可推动测评体系建设,形成可重复的可靠性评估与风险分级标准,促进行业良性竞争。 前景——智能问答将走向“可信增强”,关键在治理与生态共建。可以预见,生成式工具仍将持续融入政务服务、企业经营与大众生活,其价值不在于替代判断,而在于辅助信息整合与效率提升。下一阶段发展重点将从单纯追求“更会说”转向“更可靠、更透明、更可控”:一上通过更强的引用、检索与事实核验能力降低“幻觉”;另一方面通过内容生态治理与商业推广规范,减少被操纵的空间。只有当技术改进与制度约束同步推进,公众才能在更低风险、更高可信的环境中使用这类工具,让效率红利更充分转化为高质量发展动能。
生成式AI的快速发展为社会带来了便利,但其在信息真伪辨别上的短板正逐渐成为公共议题。这既考验用户的信息素养,也考验平台、企业和监管部门的责任。唯有通过技术迭代、制度完善与多方协同,才能让AI成为可信赖的助手,而不是误导信息的放大器。在享受AI便利的同时,保持必要的理性与核验习惯,应成为每个用户的必修课。