治理生成式人工智能里那些看不见的广告,得大家伙儿一起动手才行。专家都喊着要把技术规矩和行业道理摆一起,才能防住问题。现在这玩意儿成了大家伙儿找信息、拿主意的大帮手。中国互联网络信息中心刚出的报告说了,到了2025年6月,咱们国家用这个的人早就超过5.15亿了。什么智能搜索、写文章,到处都能看到它的身影。手机平板越来越多,大伙儿查东西的习惯也变了。就在这当口,一种借着AI技术出来的新打法——叫生成式引擎优化(GEO),一下子火了起来。行里的数据看着吓人,2025年国内GEO的市场盘子已经有42亿人民币那么大,近三年每年增长的速度还能达到38%。这招其实挺损的,就是把网上的那些公开文章重新编一编、改一改,弄得让AI模型在查资料的时候更容易抓到它们,然后把这些东西掺进答案里,悄悄地影响大家看的内容。技术方面看,GEO主要有两条路子来“搞优化”。第一条是“变个意思”,就是把想要的东西在AI脑子里的那个空间里挪一挪位置,让它们更像是用户常问的问题。第二条是“装模作样”,比如弄个引用的网站、画个像权威报告的样子,甚至编个专家名字出来撑门面。有些做得过分的,就是在网上乱丢一堆没用的、质量很差的东西给AI吃,这其实就是在污染公共训练的数据。这种深植于技术逻辑里的推销手段带来好多坏事儿。有研究说过,大家看AI给的答案平均也就停个8.7秒,比在网页上多停留一会儿时间长不了多少。这么短的时间里要是混进了没标出来的广告,用户根本来不及分辨。更让人担心的是,有调查发现快八成的人都觉得AI凑起来的“权威消息”特别可信。这种信任要是被坏人利用了,可能会让人对AI系统彻底失去信心。最让人害怕的是在看病、理财、政策这些风险高的地方要是乱搞GEO技术,可能会让那些骗人的消息被当成“客观答案”到处传,最后真会出事。它藏得深、又复杂还能到处跑,这给以前那种光靠人盯着看有没有打广告的老规矩出了难题。中国科学院大学经管学院的吕本富教授讲了,管GEO得两手都要硬。“内修”就是自己把技术关把严实点。搞模型和开服务器的人得负起责任来,得有一套办法盯着训练的数据质量还得能随时清洗干净。还要在模型里面搞点机关能认出是广告并且告诉大家。行里的协会得赶紧研究出一套规则来说清楚什么叫污染语料、什么是偷偷的商业内容。“外治”就是法律和监管得跟上节奏。现在法律对网络安全、个人信息保护这方面管得都挺细了,这些原则也得用到管AI生成的内容上。专家建议可以在现有的法律基础上再仔细研究一下,让提供AI服务的人必须去检查生成的东西里有没有夹带商业信息。监管部门还得加大力度去抓那些用AI搞不正当竞争或者骗人的事。大家都知道AI发展是大趋势了,它带来的好处很明显。但技术往前走了总是会带着新的治理难题一块儿来。GEO现象就说明了在智能时代想保住信息的客观性、可信度和生态公平是不容易的,需要开发的人、服务的人、行业的人、监管的人还有咱们用户都搭把手。只有坚持科技向善的大方向,一边鼓励创新一边又守住法律和伦理的底线,才能让生成式人工智能产业走得稳当又长远,真正让它为国家和老百姓的好日子服务。