【深度好文】ai的未来模型

前段时间在实验室里折腾AI的时候,刚好赶上了下雪天。我手头没什么高级的装备,就是个开源的生成模型,大概几亿的参数规模吧。当时我给它的任务是写一份关于未来五年智能家居市场的预测,重点得放在用户隐私的问题上。我把需求直接扔进去,按了运行键就不管了。大概过了二十分钟,它就把报告吐出来了。里面的数据图表和场景模拟做得挺到位,我当时确实被这速度和效果给惊到了。 这事儿让我想起了我姐家的孩子。那孩子五岁的时候,我姐总是盯着他画画,非得按她的方式来画轮廓、上色,结果画出来的东西都长得一个样。换成我姐夫带的时候就不一样了,他给个目标就放手让孩子自己玩。结果那孩子画了个乱糟糟的怪物狮子,眼睛里还闪着光,那是他的第一幅原创作品。用AI不也得这样吗?如果你像个直升机父母一样盯着每一行代码改来改去,那它顶多给你个平平无奇的结果。 高手父母其实都很明白一个道理:得结果导向,过程不能太插手。就像我那个做软件工程师的朋友带团队做聊天机器人项目时一样。他直接把需求扔给AI去做模拟人类情感响应的工作,根本没管什么算法细节。当时团队里的小李还挺紧张的,问是不是要先定义情绪阈值?朋友摆摆手让他先跑一遍看看。结果第一版出来效果特别好,老人测试的时候都笑出声来了。小李后来也承认自己太爱干预了,差点错过了惊喜。 我也试着对比过传统编程和用AI写代码的效率。比如用ChatGPT来做一个简单的App原型大概两小时就能搞定;要是用像Visual Studio这样的IDE自己调试的话,我可能得花六小时还得纠结bug的问题。这种差别确实挺大的。 在我看来,AI更像是个创意伙伴而不是一个仆人。你只要给个模糊的指令让它去试错就行。育儿也是一样的道理。那些总是盯着成绩的家长可能会让孩子的成绩单看着很漂亮但创意却很匮乏。 去年我翻到了那次AI生成的用户场景图里有个细节让我印象特别深:一个中年男人对着客厅里亮着灯的AI音箱说自己心情很糟想聊聊心事,音箱居然回应让他讲讲自己的故事。这细节完全是AI自己脑补出来的我根本没指定过这种设定。 回想我小时候爸妈管得也比较松我试错的机会比较多长大后就不怕失败了。所以在AI时代对待孩子也应该是这个态度:别教他们怎么敲代码而是先问问他们到底想解决什么问题。 不过刚才我也说了放手不是绝对的得有底线比如涉及到隐私数据的问题就必须得干预删掉因为这关系到整个产业链的数据安全甚至可能会毁了整个局面。 就像新闻里有时候会报道有家长放任孩子玩无人机结果砸坏了邻居家的窗户那就是典型的干预不足了。 再说那个著名的罗森塔尔效应我也觉得挺有道理的就是老师相信学生聪明学生真的会变聪明这在AI上好像也适用我相信如果我信AI能成大师级助手它就真的能给我一些惊艳的东西出来。 不过这东西也有不确定性大概有80%的时间都挺靠谱剩下的20%可能需要重新跑一遍数据支持我的看法是如果未来模型变得更大更复杂可能这个误差率还能再降到5%左右吧。 前几天有个同行工程师在会议上说用AI就像养宠物别把它当成机器人使唤他讲了个故事:团队开发语音助手本来想严格定义对话树的规则结果AI学着学着自己冒出了俏皮话把用户逗得特别开心反馈也特别好他说干预多了就没有灵魂了虽然我当时有点怀疑不过测试数据确实显示满意度提高了15%——这是他分享的样本统计结果。 有时候我也挺纠结的比如周末想让侄子用AI生成太空冒险的故事输入进去后它写出来的长篇大论结尾却太平淡我忍不住又改了两句这时候我发现自己还是半吊子的父母心态没有彻底放手啊。 再想想技术的生命周期吧AI工具更新换代很快我估算每年新版本都能提升20%左右的效率——这是我心算的从GPT-3到4参数翻了一倍输出质量也有了明显的跳跃孩子的成长也是一样放手让他们试错生命周期才会长潜力才会大如果总是纠正步骤孩子就会像老款软件一样很快就过时了。 你在用AI的时候是选择信任它多一点还是更爱管闲事一点呢?(停顿一下)我想起那天实验室外的大雪那天AI报告里有个细节说智能家居隐私保护靠的是信任链用户来定规则设备来适应这种方式。未竟的一点是我们怎么给孩子也建立这样的链条或许就得从相信他们开始做起吧。