人大代表提议给AI内容加上无法删除的水印,这个想法固然好,但要真正落地,大家得直面五个大难题。这个话题最近火遍全网,大家都在聊。提议的初衷是从源头拦住AI深度伪造、假消息和侵权乱象,挺符合现在管AI的需求,想法没问题。不过从做技术的角度看,“绝对无法删除”这事就挺悬。 首先是技术上没法完全保证。做水印的时候总绕不开“鲁棒性、隐蔽性、实用性”这三个点,想要绝对不可删除,就得用特别硬的手段嵌进去,这样就会把图片和视频弄得没法看,声音也不好听了。要是为了让内容好看点就藏着掖着搞隐式水印,现在随便用个修图软件、转个码就能把它洗掉。更让人担心的是那些专门去水印的人都有自己的产业链了,在电商上花几十块就能买到去水印服务,他们的技术更新比合规的水印研发还快,所谓的“无法删除”在技术上根本行不通。 接着是标准的问题。现在全世界还没统一一套AI生成内容的水印标准。像百度的文心一言、讯飞星火、OpenAI的ChatGPT还有Stable Diffusion这些模型,每个用的算法和格式都不一样,互相不兼容。就算一个平台给AI内容加上了水印,传到别的平台别人也不认识。法律上也没说清楚“无法删除”到底是普通用户去不掉还是专业人士也不行,没有具体的量尺来衡量后面的监管执行就没法展开。 再来看看产业这边的压力。给AI内容强制加上高难度水印会让企业花更多钱去搞算力研发和技术改造。大公司撑得住这点成本没问题,但那些小创业团队和做垂直领域模型的公司可能就因为这一下子陷入困境了。特别是像Stable Diffusion和Llama这些开源模型能让用户在本地随便改代码和部署程序,用户想删掉水印生成无标识内容太容易了。这种没人管得到的场景成了监管的一大盲区。 还有伦理和使用上的冲突。强制加不可去的水印会误伤很多正常需求。比如家长用AI修老照片或者做孩子成长视频时强制加上一个水印会破坏那种情感表达的完整感;设计师拿AI素材二次创作时水印会直接影响作品的美和商业价值。从版权角度讲,用户花心思写提示词、反复调参数弄出来的东西也是自己的劳动成果。如果这个水印人家不能选必须加在上面,那就是侵犯了人家创作的完整性。 最后是监管和执行上的难处。现在每天有上亿的AI内容产生出来靠现有的技术根本没法把所有内容都检查一遍核实是不是有标志。大部分平台还是靠大家举报这种被动的方式响应问题做不到事前预防效率太低覆盖面太小。就算发现了违规内容想去追到底也是一件很麻烦的事因为可能被多次二次生成还跨平台转发根本找不到源头在哪里。 现在的《办法》里也没明确规定恶意去除AI内容标志该怎么罚平台、开发者和使用者到底该谁负责也不太清楚导致执行起来没什么底气。 其实治理这事得讲究点实际效果最现实的路径就是别太绝对采用分类监管加双标志的办法:商用和公众传播的内容就强制加上明显的标志再加上隐形的溯源痕迹;个人用的非商用场景就让用户自己决定要不要加。同时国家层面应该赶紧建个AI内容核验平台统一标准狠狠打击那些去水印的黑灰产服务把各方责任理清楚。 只有既考虑到技术行不行得通又兼顾了产业能不能承受住压力还得照顾用户的合理需求才能在挡住乱象的同时推动行业好好发展。