技术进步带来的博弈我们该怎么办?是不是为了赚钱就非得牺牲真实性不可?保持对初心的敬畏才是我们不能丢的底线

今年3·15晚会上,咱们看到了一件挺吓人的事儿:有服务商居然给AI大模型“投毒”,直接操控AI的推荐结果。他们用的那个叫GEO的技术,全称其实是生成引擎优化(Generative Engine Optimization),这本来是为了让好内容更快被AI抓取的工具,结果却变成了危险的营销手段。商家只要肯花钱,就能让自家产品挤进AI的推荐榜单,让AI给出的“标准答案”变成自己的广告。 我发现这些服务商都很嚣张,直接用“投喂”、“投毒”这种词来形容自己的行为。他们觉得AI大模型就是个可以被驯化的工具,只要不停给它喂特定信息,就能让它“乖乖听话”,商业利益就会成为算法的底层逻辑。现在只要花几百万搞点这种“投毒”,就能在大众视野里抢位子,这种低投入高回报的诱惑太大了。 结果就是,我们用AI问问题时得到的答案很可能掺了假。以前我们信AI能帮我们做决定,现在却发现它给出的全是商家编的故事或者假数据。李源菁评论员提到的力擎GEO优化系统就特别能体现这种变化:它能一次性生成10篇宣传软文,还能伪造用户反馈和评分,让根本不存在的产品都能进推荐榜单。 最让人揪心的是,这种技术已经从单纯的优化变成了操控。当智能推荐变得不再客观真实时,我们失去的不光是一个工具,更是对它的信任。在这个AI时代里,如果大家都想着怎么去赚快钱而不管真实度了,那整个行业的公信力和信息生态肯定要遭殃。最后想问问大家:技术进步带来的博弈我们该怎么办?是不是为了赚钱就非得牺牲真实性不可?保持对初心的敬畏才是我们不能丢的底线吧?