算法“黑箱子”,互联网公司不能光拿“技术中立”当挡箭牌

算法治理,首要的就是把透明度提上去。要想把那个让人大脑“上瘾”的推送模式给破解了,就得先打开那个藏在算法背后的“黑箱子”。在数字化的大浪潮已经深深融入社会每根神经的今天,算法成了互联网平台的大管家,彻底改变了咱们看什么、怎么看的习惯。但好景不长,随着它被广泛用起来,各种麻烦事儿也跟着冒出来。不少平台打着算法的旗号,特意把那些看着让人眼睛一亮、情绪很容易被挑动,或者是非常类似的内容推送给我们,目的就是为了让咱们多留一会儿、多互动一点。这种让你欲罢不能的推送方式,不仅把咱们深度思考的能力和自主管理时间的权力给磨没了,还从大的层面上让整个社会的看法变得越来越分化,让大家达成共识变得很难。这对青少年的健康成长和整个网络环境都造成了很大威胁。经过仔细观察发现,这个让人上瘾的推送机制,往往是靠着一个对老百姓来说特别不透明的算法“黑箱子”运转的。平台会把咱们的各种数据都收集起来画成一幅精细的画像,然后再把个性化的内容喂给咱们看。它们的玩法通常有这么几招:一是先用那些特别刺激的内容抢走咱们的注意力,特别是在刚开始积累数据的时候;二是深挖咱们人性中的那些软弱点,优先给那些能让人特别生气或者产生对立情绪的话题和说法;三是一直用差不多的东西推荐给咱们,让咱们陷在那种不断自我强化的环境里出不来,养成依赖这个平台的习惯。这种情况下,虽然看起来咱们是自己选的内容,其实早就被算法的那一套流程给深深影响了。咱们在享受便捷和快感的时候,可能不知不觉就把自己手里的信息选择权和判断力给交出去了。“算法黑箱子”的存在,是整治这个成瘾推送问题的最大拦路虎。因为技术复杂又涉及商业机密,外面的人很难插手监督和评估。我们往往只知道自己看到了什么(知其然),却不知道为什么会看到这些(不知其所以然),也不知道自己的数据怎么被用的、权重是怎么定的。这种不透明的状态,既削弱了咱们的知情权和选择权,又给平台逃避责任提供了借口,使得算法里面可能藏着偏见或者操纵行为而不容易被发现和纠正。面对这个全世界都在头疼的问题,国际社会已经试了好几种治理办法。有的国家直接通过立法逼着大平台去做算法风险评估和披露;有的则专门盯着未成年人的保护,严格限制给他们推送什么内容、能玩多长时间。这些实践告诉我们:光靠平台自己良心发现或者市场自发调节肯定不行,必须有外面有效的规矩来管一管。咱们国家现在搞网络治理得坚持系统观念,多管齐下才行。首先是要把算法搞得透明点、能让人说个明白。要鼓励平台在保证技术安全的前提下,用咱们听得懂的话把推荐逻辑、主要参数和用户有啥权利讲清楚。还得搞个备案、评估和审计的制度,对那些影响大的算法做合规审查,让它们符合社会主义核心价值观,让信息传播变得公平多样又健康。核心是得把平台的主体责任给压实了。互联网公司不能光拿“技术中立”当挡箭牌,必须强化社会责任和伦理意识。要把社会效益、用户的好处和长远发展当成考核重点,不能只盯着流量和时长不放。得建个内部伦理审查机制,对推荐的内容进行必要的价值引导和风险过滤,防止技术被滥用。基础是得提升老百姓的数字素养和辨别能力。通过学校教育和社会宣传等多种渠道教大家学会看门道;特别是要把青少年的网络素养教育抓起来;帮他们搞懂算法是怎么玩的;让他们知道“信息茧房”的风险;培养他们理性判断信息和自主管理数字生活的本事;这样面对推送的时候才能保持清醒自主。保障是要完善协同治理和法规体系。监管部门得跟上时代步伐研究出适应算法时代的规矩标准;把“成瘾推送”的定义和红线划出来;加强多部门的配合形成合力;同时把投诉举报的路给畅通;完善权益救济机制;形成政府管、平台自己管、大家一起管的局面。算法技术发展的脚步停不下来;它本身就是个中性工具;关键在于使用它的人和定规则的人;打破“算法黑箱子”治理“成瘾推送”说到底就是要在数字化时代平衡好技术效率、商业利益、个人权益和社会公益的一场大实践;这需要咱们有勇气直面问题还要有智慧凝聚治理共识;在发展中规范在规范中发展;只有坚持科技向善原则推动算法在阳光下运行才能真正服务于人民高质量的数字生活需求为构建更加清朗和谐充满活力的网络空间提供支撑这也是迈向网络强国必须答好的时代课题。