清华大学刚刚发布了一份年度报告,报告呼吁大家给人工智能治理体系弄个能测量的体系。这年头科技竞争挺激烈的,人工智能技术发展得很快,可这一套治理体系就有点跟不上趟了。清华大学人工智能国际治理研究院最近出的这份报告,把人工智能技术发展和治理挑战捋了个遍,对全球治理也能当个参考。报告里说,现在的人工智能不光是个“数字助手”,都快变成“物理行动者”了。这种转变在自动驾驶、人形机器人这些领域都能看到,技术用得越来越广。但是问题来了,技术嵌入现实世界越深,潜在风险也就跟着变大。高自主性的系统决策可能出错,责任谁来担也不太清楚。这些事儿都给社会治理和伦理规范出了新难题。 除了技术本身的问题,基础设施也有瓶颈。全球算力是增长了不少,但分布不均匀。因为地缘政治因素,某些地方算力多,某些地方就少得可怜。而且能源供应紧张加上算力需求大涨,两者互相影响成了恶性循环。这个恶性循环可能会扩大技术发展的地区差距,影响到全球科技合作的公平性。尽管大家都开始关注人工智能治理了,各种倡议和协议也没少签,但要是没有统一的标准和执行机制,治理效能就很难发挥出来。 还有啊,大国博弈还有技术标准上的分歧也让国际协作变得更难。报告强调了一句:如果治理体系一直滞后于技术发展,那就容易出事了。所以这个报告给出了建议:得把治理框架变得具体、可操作一些,通过量化指标评估风险和成效。具体怎么做?建立跨领域的风险评估体系、完善数据安全隐私标准、推动能源高效利用技术创新还有加强多边对话协作机制。 特别提醒一下啊:治理框架不能光顾着防范风险而忘了激励创新。未来人工智能治理肯定是多元化、精细化的方向了。技术创新和治理体系得协同发展才能推动行业健康发展。国际社会得在尊重各国需求的基础上求共识共同应对挑战。只有持续对话合作才能把这个包容可持续的治理生态建起来。毕竟人工智能治理不光关乎技术本身更是关乎人类社会未来走向的大事儿!