陶明:ai是把伦理治理直接嵌进了技术底层的想法

Soul这家公司把上市的事推进得挺顺利,技术创新和安全规范一直在同步走。眼看就要提交IPO材料了,大家特别关心他们是怎么用AI来搞伦理合规的。陶明跟大家说,Soul搞AI布局的路子很明确,一方面要提升用户体验,另一方面还要保障安全。最开始的时候,平台主要是想把人与人的连接搞好,后来又引入了生成式AI来拓展新玩法。为了让发展能长久下去,Soul决定把老一套的规范都揉进AI研发和应用里去,打造一套全流程的治理体系。 其实早在2016年刚上线的时候,Soul就开始琢磨人工智能这块了。那个时候他们主要用的还是传统的机器学习和深度学习,专门盯着怎么让人跟人连得更顺畅。那时候用户最想找志同道合的伙伴,或者想好好倾诉一下心里话。随着社交网络越来越复杂,大家对社交体验的需求也变得五花八门了,光靠单一的推荐算法已经很难让人满意了。于是在2019年前后,Soul发现了生成式AI的潜力,就赶紧动手布局了,目的就是为了把社交体验再往上提一提。 陶明觉得社交是个双向的事儿,大家都得把话说得漂亮才能有好的体验。所以Soul在做AI技术的时候特别注重增强用户的表达能力,帮助大家交朋友。这招不仅把平台的社交场景给搞活了,也让AI成了升级社交体验的主力军。这下路数就很清楚了:从一开始用AI帮忙找人聊,现在变成用生成式AI创造更多元的玩法。 不过话说回来,AI发展得太快也有隐患。要是没把伦理这一关看牢,很容易出现隐私泄露或者算法偏见这种问题,到时候大家就不相信你了。所以Soul对AI的伦理治理一直提心吊胆地看着。陶明跟我们强调说:“不管是用技术还是管安全,两边我们都得抓稳。只有这样生意才能做得更好。”他提到他们自打干这行起就立了两条规矩——保护用户安全和保证内容安全。 后来进了AI社交的阶段,Soul就把以前管社区的经验拿出来用在AI上。“我们不用那种传统的安全过滤方法了。”陶明解释道,“我们直接把以前管用户行为的规矩和管内容安全的规矩都搬到了AI模型里。在最底层的数据治理上,我们建了个健康的池子来放数据。” 这就说明了Soul是把伦理治理直接嵌进了技术底层的想法。他们在搞技术创新的时候先把规矩立好,通过严格的机制来管住数据的使用和风险防范。平台用符合规定的数据源来训练模型,保证技术跑得稳当。现在Soul IPO的步子越迈越大,这种把责任扛在肩上的创新策略就显得格外重要。这不仅让他们在治理方面有了好名声,也证明了他们有能力可持续地发展下去。