郭苏敏:治理ai 视频像制作视频原料得把关

最近AI生成的视频越来越逼真,像Seedance 2.0这种生成模型把视频创作能力提升了不少,大家看了挺担心的,毕竟造假的视频可能会带来各种问题。 2025年2月9日的时候,Seedance 2.0就暂停了参考真人素材的功能,但这个问题好像没彻底解决。明星们也因为AI视频给自己带来负面影响,多次发声控诉。 中国信息通信研究院人工智能研究所的工程师郭苏敏接受中新网专访时说,治理这块儿得走体系化路线,配套检测和溯源机制。 首先得加强源头治理,训练数据就像是制作视频的原料,得给它把关。模型研发也得自带风控功能,比如校验内容、核查身份和拦截敏感场景。 其次是分类分级地进行风险管控,根据模型能力设置不同权限。高逼真的模型不能随便对外开放,得管得严一点。 中国信通院还弄了个“两横三纵”的治理框架,把技术和管理结合起来。 最后得推动安全测试,搞个针对AI视频生成的评测集。中国信通院的《人工智能安全治理研究报告》还提到要多模态领域的安全基准测试,也就是AI Safety Benchmark。 吴家驹报道中新网3月12日电