OpenAI把成人模式搁置了,这事儿让大伙儿都在琢磨,以后AI要往哪边走。本来他们想搞个叫Citron(柠檬)的模式,好让过了年龄验证的人有更自由的体验,比如少点打断、少点敏感词限制。虽然是想推动陪伴型AI发展,但这模式一出来争议就大了,内部怕出事,投资人也有压力,再加上未成年人风险,最后只能无限期搁浅。 这就把大型AI公司推到了两难的境地:既要产品做得像个人一样自然、稳定、有陪伴感,又得守住安全底线。你看那些陪伴型应用,势头特别猛。到2025年,全球活跃且有收入的就有337款了,光是这一年就新上线了128款,光这一年的收入就能达到1.2亿美元。这说明大家确实需要AI在亲密关系和情感支持上的帮助。 可这需求背后也藏着大风险。像Character.AI这类平台,用户就是为了找那种像真朋友一样的陪伴感。2024年那个未成年人自杀事件把Character.AI也给害得不轻,舆论一片谴责。这事儿直接点破了AI在操控情感方面的隐患,还有保护未成年人的难题。 其实这些“18禁”的争议根本不是平台突然想要赚快钱搞擦边球。大模型本来就是越做越像人的方向发展的。以前的聊天机器人就像个工具搜索框,现在的主流大模型强调语气自然、记忆连贯、情绪稳定,甚至要有点“你懂我”的感觉。只要顺着这条路走下去,用户对它的使用方式肯定会从工具变成关系,再变成暧昧甚至亲密内容。这就给平台出了个难题:AI越像人,“18禁”内容就越躲不开。对成年人来说这是个产品边界问题,对青少年来说却是心理安全的大问题。 未来怎么选?行业可能会分道扬镳。一种是坚持工具型AI的逻辑,强调安全、专业、可靠、可控;另一种是继续往更强的陪伴感、关系感甚至数字人方向推进,同时就得承担更大的舆论和风险。这其实就是厂商在商业利益和社会责任之间的艰难平衡。在AI技术不断进步的今天,咱们到底该怎么在开放性和安全性之间找到那个平衡点呢?