自动驾驶系统到底靠不靠谱还得打个问号

2016年开始,美国国家公路交通安全管理局就已经对涉及自动驾驶系统的上千起事故展开了调查。到了2023年,旧金山那边就因为好几次自动驾驶汽车闯进应急车道或者误入施工区域的事儿,惹得好些市民团体嚷嚷着要加强监管。尤其是加州,作为全球搞自动驾驶路测最火的地界儿之一,这回又出事儿了。 1月23日这天,加利福尼亚州圣莫尼卡市的一所小学门口发生了件怪事。一辆原本属于Alphabet公司旗下Waymo的自动驾驶车,当时正负责接送学生。结果在这热闹地方,它撞到了一个突然从后面跑出来、想横穿马路去上学的小孩。虽然最后这孩子也就是受了点轻伤,但现场可乱了套:有别的小朋友、交通协管员,路边还有好几辆违规停着的SUV。这就是典型的学校周边环境复杂地带。 NHTSA那边反应挺快,事故第二天就宣布要查。他们这次主要盯着自动驾驶系统在这种学校区域的逻辑,看看它在面对未成年人这些弱势群体时有没有做好防护措施。还得看车能不能看懂限速牌和临时管制,还有出事了之后Waymo的数据上报到底合不合规。这帮人说了,这是个初步评估,要是真查出来安全问题,可能就得搞更严格的工程分析甚至勒令召回整改。 Waymo公司的解释是车确实检测到了人也踩了刹车,可谁知道小孩突然冲出来太快根本躲不开。他们还拍着胸脯保证这套系统是“以安全为核心设计的”。不过这事儿再次说明了个大问题:自动驾驶系统不光得在瞬息万变的交通环境里做出正确决定,还得在法律和道德上弄清楚谁该为这个担责任。毕竟全球都在为这事儿发愁呢。 要是再往前翻翻记录就会发现,从2016年到现在NHTSA已经查了不少类似的事故。数据显示有三十多起导致了重伤或死亡。大家都知道自动驾驶是能帮着减少人为失误的好东西,但在那种极端情况下——比如小孩儿突然跑出来、下大雨或者路牌没了——它到底靠不靠谱还得打个问号。现在的车大多靠感知、决策再执行这一套老路子过日子,到了那种高楼大厦堆得密密麻麻的市区里头,传感器看不见的地方多了去了,算法又慢半拍,风险一下子就被放大了。 还有个更头疼的法律空白是:现行的那些交通法规本来就是给人脑来开的车定的规矩,现在换成了机器开的车出了事该找谁赔钱?该由谁来认责?这都是个未解之谜。反正技术进步这事儿一直都绕不开安全这根弦。虽说这次Waymo没弄出人命算是万幸,但还是给我们敲了一记警钟:技术落地的时候,绝对不能忘了把弱势群体的保护放在第一位。 想要在创新跟安全之间找个平衡点也不简单。监管机构、搞技术的公司还有咱们老百姓得一块儿想辙才行。未来自动驾驶不光要在实验室里考个高分过关,还得在真实世界的那些复杂伦理难题面前交出一张合格的答卷才行。