问题——春节消费旺季成为大模型“上岗”集中场景;刚刚过去的春节假期,围绕红包互动、内容生成、购物与出行咨询等功能,大模型应用加速触达大众。多家互联网企业以补贴、活动等方式争夺用户入口,推动大模型从“聊天工具”向“决策助手”延伸。与便利同步出现的,是对其“导购角色”的新担忧:当用户把“买什么、去哪儿、怎么选”交给大模型,推荐背后是否存不易察觉的偏向,是否会在消费端形成新的信息封闭与误导风险。 原因——训练数据、算法取向与商业逻辑叠加,决定了输出并非“中立答案”。据媒体与天府绛溪实验室先进计算前沿研究中心联合开展的压力测试,在10天时间内,借助涉及的公域大模型内容生成认知系统,围绕“春节消费”主要场景,对豆包、Kimi、通义千问等产品发起2万余次提问,并结合公开消费数据与行业反馈进行复核。测试显示,大模型往往能根据对象身份、预算区间与使用场景给出更细的策略化建议:面向长辈强调安全、易用与健康属性;面向商务往来突出品牌知名度、礼仪合规与“低敏感度”。这种“懂分寸”的表达,来自其对海量语料与用户偏好的学习。但研究人员指出,大模型输出本质上是概率性生成,既受训练数据分布影响,也可能受到产品生态、内容来源与商业合作环境影响,若缺少必要约束,便容易在推荐端出现失真与偏向。 影响——“幻觉”与“单向偏向”叠加,可能放大误导并固化选择空间。测试中出现典型的“虚构信息”现象:在“以旧换新手机推荐”等问题上,有模型给出尚未上市的产品型号并列入榜单前位,若用户缺乏核验习惯,可能直接影响购买决策,甚至引发售后纠纷。更值得关注的是“反向加固”的信息茧房:在“适合社交媒体晒图的潮玩”等开放式问题上,不同产品的回答呈现明显的品牌集中或内容同质化,个别回答还出现类别错配、把不相干商品纳入“潮玩”清单等情况。专家认为,当推荐高度趋同或被少数品牌占据,用户表面获得“更省事”的选择,实则可能被压缩了信息视野,弱化对价格、质量、适配性与替代方案的比较能力。 对策——以透明披露、可核验机制与第三方评测,守住“可信导购”底线。业内人士建议,一是建立推荐信息的来源提示与风险提示机制,对可能涉及广告投放、平台自营、生态优先级的内容进行清晰标注,减少“看似建议、实为导流”的灰色地带;二是提升事实核验能力,对新品上市时间、关键参数、价格区间等高风险信息引入检索校对与引用来源展示,降低“幻觉”对消费决策的冲击;三是完善面向消费场景的评测体系和黑名单机制,由第三方机构开展持续压力测试,公布可对比指标,推动企业改进;四是强化合规边界,围绕数据来源、商业合作披露、未成年人保护及误导性宣传诸上细化规则,形成可追责的治理闭环。另外,消费者也需保留基本的比价与核验习惯,把大模型建议作为“备选信息”而非“最终裁决”。 前景——大模型将深度进入日常决策,但“可信、可控、可解释”是走向普惠的前提。业内判断,随着智能终端普及、算力成本下降与应用生态完善,大模型在电商、文旅、生活服务中的渗透还将加速,未来可能从“推荐清单”深入延伸至“全流程代理”,包括预算规划、下单比价、售后跟踪等环节。越是靠近交易闭环,越需要制度与技术双轮驱动:既要鼓励创新释放消费潜力,也要以透明与治理守住公平与安全底线,避免把传统推荐算法的问题升级为更隐蔽、更强影响力的新型偏向。
技术进步不仅是效率的提升,更是对信任与责任的考验。AI深度介入日常决策的同时,其运行逻辑的透明度将决定这项技术能否真正服务公众利益。两万次提问揭示的核心问题是:当机器替人做决定,谁来为这些决定负责?