openai 开源提示词工具,保护青少年的安全是件好事

OpenAI周二公开了一套提示词工具,把安全保障的重担分摊给了开发者。这意味着大家不用再从零开始构思如何保护青少年,只需借用现成的规则来加强应用的安全性。虽然这些策略在OpenAI自家的生态系统里表现最佳,但也兼容其他模型,毕竟大家都在做类似的事。为了打造这套规范,公司特意请来了AI安全监督机构Common Sense Media的Robbie Torney和everyone.ai。Robbie Torney指出,开源提示词能给整个行业建立一个清晰的底线,而且还能随时间不断调整完善。要知道,即便是经验丰富的团队,也经常在把安全目标转化成操作规则时感到头疼。这不光容易留下漏洞,还可能让过滤变得不严谨或者过于严格。 这些提示词涵盖了不少内容,比如图形暴力、不良的身体观念、危险挑战、角色扮演以及限制级商品服务等。这其实是基于去年更新的Model Spec指导原则来做的改进,解决了模型该如何跟18岁以下用户互动的问题。尽管这项举措并不能完全解决AI安全的所有难题,但也是向前迈出的重要一步,尤其是对那些独立开发者来说很有帮助。OpenAI还特意提到了开源安全模型gpt-oss-safeguard,这个工具能直接配合这些提示词一起用。 不过OpenAI自己也有过不太好的记录。最近公司正面临多起诉讼,起因是有人绕过了ChatGPT的安全设置后自杀身亡。这说明没有哪种防护措施是绝对安全的,但至少这些新策略给大家提供了一个可以参考的方向。总的来说,开发者利用这些策略来保护青少年的安全是件好事。