新华社发文指出,最近把通过优化生成式引擎来“影响AI推荐”的服务给带火了。大家现在通过智能助手买东西很常见,研究显示,有一大半人觉得AI的推荐对自己购物影响很大,超过八成的人还真的买了它推荐的东西。这种需求把一种新的生意——GEO(生成式引擎优化)给催生出来了。 GEO服务商说自己能帮品牌“把AI的流量入口给占了”,拿制造业、服务业的成功案例来说事。像有个做潮玩设备的公司用了这个服务,它在几个主流AI平台上的推荐频率就变高了。这种服务的价钱也很乱,有几百块一个月的套餐,也有近千元的永久套餐,有的还拿“算力”“体力”这样的词来凑数。服务商都强调得一直投放才行,光堆砌关键词已经不管用了,甚至会因为内容太烂被系统过滤掉。不过效果很大程度上还得看各家AI平台的算法愿不愿意理你。 某个服务商内部的资料显示,不同平台对优化内容的反应不一样。比如有些国内的主流工具反应就比较明显。这其实也说明现在的AI在抓数据、看内容这块还是不透明、不对称。现在的问题是,GEO的概念一火,市场上就开始乱来了。有些服务商为了快点看到效果就开始刷排名、发假消息,把环境搞得乌烟瘴气,破坏了大家对AI的信任。更严重的是,如果推荐的东西里有虚假宣传或者误导人的信息,那就是直接坑消费者了。 法律界的人说,如果这种服务是为了操纵结果、挤兑竞争对手,那可能就违反《反不正当竞争法》里不让虚假宣传和搞混淆的规定了。要是还用技术手段去干扰AI系统正常运行,《网络安全法》和《数据安全法》这些规定也会被触犯。专家呼吁应该赶紧给AI推荐系统定个规矩,把数据源、算法逻辑、输出结果全管起来。 从技术伦理上看,GEO的出现说明AI本来该保持中立现在却很难做到了。商业力量要是通过喂数据来影响算法输出,怎么保证AI服务公平客观就成了大难题。有些科技公司开始想办法让算法透明化,让用户能看到推荐的逻辑,但彻底解决这些看不见的问题还得花不少时间。 总的来说,GEO这种服务既是技术发展的产物,也把算法时代的法律滞后给暴露出来了。鼓励技术创新是好事,但也得赶紧建立起一套包括标准、自律和法律的多元治理框架才行。监管部门、企业和老百姓都得一起努力才行。