最近杭州互联网法院处理了一起特别有意思的案件,这回是因为一个AI生成内容出了问题引发的纠纷。事情是这样的:一个人使用了一款AI生成模型,结果发现这个模型给自己生成的内容里有错误。于是这个人就去找这个模型的服务提供者要赔偿。根据这个服务提供者的规定,如果AI生成内容有误,给赔偿10万元。但是这个时候问题就来了,服务提供者表示AI的承诺并不是他们公司的意思。 这次判决很重要,它给了大家一个清晰的指导。AI虽然能给我们提供很多便利,但毕竟它不是全知全能的。有时候它生成的答案看起来挺有道理,其实里面藏着错误。在杭州这个案子中,服务提供者的规定就是个典型例子。这个规定本来是想给用户一个安全感的承诺,结果却引发了麻烦。从法院的判决来看,在生成式人工智能场景中,这个规定并不代表服务提供者真正的意思。 这个判决也回答了另一个重要问题:AI模型是不是一个独立的民事主体?答案很明确:它不是。在这个案子里,AI自己生成的赔偿承诺被认为不能代表服务提供者真正的意愿。也就是说,在法律上,人工智能并不是服务提供者的代言人或者代理人。除非服务提供者明确通过AI模型来传达信息或者设定内容,否则类似这种承诺是没有法律效力的。 那么,面对这样的问题,服务提供者到底有什么责任呢?根据《生成式人工智能服务管理暂行办法》,这类服务算是一种服务范畴。虽然AI生成的内容不算产品法意义上的产品,但服务提供者必须对这些内容进行严格审查。比如发现有违法内容的时候要及时停止传输、消除,还要对模型进行优化训练等措施来整改。 同时,服务提供者还需要用明显的方式提醒用户AI生成内容可能会有不准确的情况。这样做是为了防止用户过分相信AI生成的信息。也就是说,在使用AI的时候我们得保持一定的警惕性。