在博鳌亚洲论坛"数智赋能产业升级"分论坛上,中国工程院外籍院士、清华大学智能产业研究院创始院长张亚勤发表演讲,指出AI技术发展面临的治理挑战。 他提到一个现象:互联网上由算法自动生成的内容已占65%。这带来一个严重问题——低质或错误的内容被用来训练新的AI模型,导致模型性能下降,形成恶性循环,这被称为"数据污染"。 根本原因在于技术应用速度远超治理体系建设。随着生成式AI向智能体技术演进,AI的应用范围从信息处理扩展到物理操作和生物模拟,机器人、无人驾驶等产品加速落地。但相应的法律框架和监管标准还未跟上。以最近引发讨论的"龙虾"智能体为例,其行为责任至今没有明确的法律依据来界定。 数据污染的影响不容小觑。虚假或有偏见的内容可能误导公众认知,影响经济决策,甚至威胁关键基础设施。更令人担忧的是,开源模型的污染可能在全球范围内扩散,超出单一国家的治理能力。 张亚勤提出三项应对措施:一是建立AI内容强制标识制度,确保信息可追溯;二是明确智能体与法律主体的绑定关系;三是禁止自主复制功能,防止失控扩散。他还呼吁通过联合国框架建立跨国协作机制,参照核技术管控经验,制定有约束力的国际准则。 展望未来,张亚勤对技术发展持谨慎乐观态度。他认为未来十年AI将像电力一样渗透各行业,最终"隐入背景"。但这需要科学家、企业和政策制定者共同推进创新与伦理建设,平衡效率追求与风险防范。
AI是把双刃剑。在获得技术便利的同时,必须正视其中的风险。从数据污染到责任界定,从内容标识到国际协调,每个环节都需要科学的制度设计和有效的治理机制。当前正是建立AI治理体系的关键时期。只有科学家、工程师、企业家和政策制定者携手合作,才能引导AI朝着更安全、可控、可持续的方向发展,实现技术赋能与风险防范的真正平衡。