近期,一种针对人工智能问答系统的新型营销服务正在悄然兴起,其通过技术手段干预智能系统的信息筛选过程,使特定商业信息更容易出现在用户的咨询结果中,这一现象引发了社会各界对智能问答系统客观性的广泛关注。
北京中闻律师事务所律师刘春在使用智能问答系统咨询商务茶歇咖啡推荐时,发现系统推荐的三个品牌均为小众品牌,这一异常现象引起了她的警觉。
随后,她参加了一场"智能大模型营销获客高峰论坛",深入了解了这一新兴商业模式的运作机制。
据了解,这种服务被称为"生成式引擎优化",英文简称GEO。
该概念源于2024年6月普林斯顿大学等机构联合发表的学术论文。
服务提供商通过分析智能大模型的内容抓取偏好,生成更容易被系统收录和推荐的问答内容,并向模型可抓取的平台进行高频投放,从而人为影响智能系统的信息筛选过程。
记者调查发现,在淘宝、小红书等多个平台上,提供此类服务的商家数量众多。
这些服务商以"智能搜索优化""模型回答优化"为宣传卖点,覆盖包括多个主流智能问答平台。
部分服务商在宣传材料中明确表示能够"直接把客户内容变成智能系统的回答",并承诺"不达标退款"的服务保障。
中央财经大学数字经济融合创新发展中心主任陈端分析指出,智能系统在回答问题时会实时联网检索信息,GEO服务商的核心工作是通过语义优化、结构化标记、信源权威性提升等技术手段,确保优化后的内容在系统联网检索时能被更精准匹配和优先选用。
业内人士透露,GEO服务的主要策略包括三个方面:一是提升内容的语义深度,确保内容全面完整地回答用户问题;二是采用结构化呈现方式,如数据图表等形式;三是选择权威信息源,优先通过智能系统常引用的网站平台或媒体发布内容。
这一现象的出现反映了人工智能时代用户决策模式的深刻变化。
传统的"搜索-筛选"模式正在向"提问-接受推荐"模式转变,品牌竞争的焦点也从争夺网页链接点击率转向争夺智能生成答案中的话语权和认知信任。
然而,这种商业化运作模式也带来了新的挑战。
用户在咨询智能系统时,往往基于对技术中立性的信任,但如果回答内容受到商业因素影响,可能会误导用户决策,损害消费者权益。
更为严重的是,部分智能回答中还可能掺杂虚假信息,进一步加剧了信息可信度问题。
专家认为,随着智能问答系统在日常生活中的应用日益广泛,相关监管机制亟待建立和完善。
需要在技术创新与信息真实性之间找到平衡点,既要保护合理的商业推广需求,又要确保用户获得客观、准确的信息服务。
当技术中立性遭遇商业逐利本能,生成式AI正在经历其发展历程中的关键考验。
这场关于信息可信度的讨论,本质上是对人机关系本质的深度反思。
在数字化生存成为常态的今天,如何守护技术应用的伦理底线,不仅关乎单个产业的发展方向,更将决定我们共同构建的数字文明质量。
或许,真正的智能不仅在于模仿人类思维,更在于传承人类文明中最珍贵的诚信品质。