问题显现 2026年4月以来,多个社交平台集中出现大量未标注的“机长写真”内容,其中90%以上未按规定标注AI生成标识。这些作品借助算法推荐,获得的流量比真人内容高出370%,导致虚构职业形象被规模化传播。4月8日,某平台流传的“美飞行员伊朗获救”AI假图,更暴露出此类内容可能带来的现实风险。 深层诱因 业内人士分析,此现象背后主要有三方面原因:其一,部分创作者利用AI低成本批量生产“专业形象”并借此变现;其二——平台算法更偏向高互动内容——客观上强化了“违规—流量—收益”的循环;其三,《人工智能生成合成内容标识办法》实施后,监管与平台识别能力提升不够及时。有一点是,抖音虽于4月10日关闭“AI创作同款”功能,但对既有违规内容的识别与处置仍是难点。 多重影响 民航专家指出,这类内容已带来连锁影响:首先,模糊公众对民航职业的真实认知,把高度专业化的飞行训练简化为“外观符号”;其次,可能被不法分子借用来制造航空谣言,例如虚构航班险情;再次,长期接触虚假“专业形象”,可能削弱社会对真实安全信息的敏感度。中国民航飞行员协会数据显示,2026年第一季度与飞行员对应的的网络不实信息同比增长210%。 治理对策 国家网信办相关负责人表示,将推进“技术+制度”并行治理:一方面升级AI内容识别能力,要求平台建立“生成式内容溯源数据库”;另一方面拟推出“职业形象保护清单”,对医师、飞行员等专业领域内容实施重点监管。法律界建议参照《网络安全法》第12条,对屡次违规平台采取阶梯式处罚。 发展前瞻 随着生成式技术持续迭代,专家预测未来三年AI视频伪造风险或上升300%。清华大学新媒体研究中心提出“可信内容生态”方案,包括建立全国性数字水印标准、开发面向公众的验证工具等。民航局也计划联合主流平台开展“真实民航”科普行动,强化职业认知与辨识能力。
技术进步不应以削弱真实与专业的价值为代价。让生成合成内容“亮明身份”,既是对公众知情权的尊重,也是对规则与责任的明确回应。只有把标识落实为硬性底线、让治理形成闭环,才能在真实与创新之间建立更稳固的信任,使网络空间的每一次“看见”更接近事实、更经得起检验。