Kagi这翻译AI竟然能把说话的腔调模仿得跟“饥渴撒切尔夫人”一样。大家上网时间长了,肯定都用过Google翻译这种工具,把网页或者文本片段转成别的语言,哪怕是从乌兹别克语转到世界语也行。可你要是想翻译点特别的“语言”,比如“LinkedIn腔调”、“Z世代俚语”或者“饥渴的撒切尔夫人”,以前肯定没试过吧?这一回,好多网友发现,Kagi这由AI驱动的翻译工具居然能搞定这些稀奇古怪的事儿,甚至还有很多你根本想不到的任务。虽然大家发现这个挺有意思,说明大语言模型很有创造力,但这也暴露了一个问题:要是随便让用户拿通用的LLM工具瞎玩,风险可就大了。 虽然你可能更知道Kagi是Google那个越来越不好用的搜索产品的付费竞争对手,但其实这家公司在2024年推出了Kagi翻译工具。他们当时号称这是Google翻译和DeepL这类工具的“简单更好”的替代品。发布的时候他们说Kagi翻译用了一堆大语言模型的组合,能根据任务挑出最适合的结果输出。不过他们也承认,“有时可能会出点我们正在积极解决的小毛病”。 刚开始版本很简单,就有个下拉菜单,244种语言随便挑着用。可到了2025年2月,有个Hacker News的网友无意间发现了一个大秘密:只要稍微改改网址的参数,就能把目标语言设成“带波士顿口音的粗鲁男人”,一点问题都没有。早在一年多前就有HN用户发现过Kagi翻译的有趣用法了,可惜当时没引起什么动静。最近这几周,Kagi自己的社交媒体账号一直在强调这服务能模仿“Reddit腔调”,或者点几下就能生成麦肯锡顾问那种话风。不过真正让事情闹大的是上周二清晨的那个热帖。 一个Hacker News的网友兴奋地发帖说Kagi翻译现在支持“LinkedIn腔调”作为输出语言了。大家在那个帖子下面一看才发现,在Kagi翻译的网页搜索栏里随便打几个字就能改输出语言,下面的AI就会尽力满足你的要求。从那时候开始,论坛上的朋友和社交媒体上的朋友们都开始测试那些最疯狂的“翻译语言”想法。有的人想借着这个工具批评媒体、开个政治玩笑、嘲笑一下科学否定者或者抨击富豪;还有的人模仿名人说话的方式,从卡尔·萨根到齐泽克再到沃纳·赫尔佐格都有;更离谱的是有人要求翻译成“小小猫咪”或者针对编程语言的话。 当然了Kagi的官方团队也加入了这场狂欢,他们鼓励大家用“LinkedIn腔调”来翻译文章,说这样就能完美混入那个圈子了。 这一切感觉就像回到了ChatGPT刚出来那会儿啊。那时候大家还对这些基于Transformer的新引擎觉得很神奇呢。你只要让大语言模型写一首沃贡诗歌的模仿作或者模仿2000年那会儿PowerPC和英特尔论坛吵架的风格,就能在网上赚点流量了。这可是大家都想拿来跟朋友炫耀的小把戏。 后来的几年里AI炒作这趟车越开越快嘛,把这些大模型从玩具变成了科技行业的关键角色。行业大佬们整天喊着说AI要抢走我们的工作或者创造出毁灭文明的超级智能呢。 这回Kagi把这些大模型放进了个搞笑的翻译盒子里。虽然Google那边有时候会给出离谱的建议或者像神谕一样让人听不懂的内容,但Kagi的这个工具好像没那么危险啊。大家也不会把它当成无所不知的神或者整个软件工程部门来用吧?就是个好玩的玩具嘛。让普通网友也能像五年前根本不敢想的那样玩玩语言游戏。 不过这种玩具也得加几道栏杆才好。要是让Kagi模仿那种一直说脏话的人的话,可能会出现公司不想沾边的结果啊!这不就是不清理输入就会出乱子嘛! Q&A Q1:Kagi翻译是个啥?有啥特别的地方? A:Kagi翻译是Kagi公司出的AI翻译工具啊!说是Google翻译和DeepL的竞争对手呢。它用了一堆大模型的组合,不光能做普通翻译,还能模仿各种风格腔调呢,“LinkedIn腔调”、“Z世代俚语”这种非传统的“语言”都能搞定。 Q2:为啥Kagi能模仿这么多奇怪的说话风格? A:因为它是靠大语言模型技术干活的嘛!只要你改改网址的参数或者直接在搜索框里输入你想要的风格要求,AI就会尽力满足你喽!所以你可以让它变成名人说话的方式或者特定人群的表达习惯哦。 Q3:用Kagi玩这些风格会有啥风险不? A:大多数时候风险不大吧,主要就是图个乐呵。不过要是让AI模仿那种一直说脏话的人之类的不当内容,可能会搞出一些公司不乐意看到的结果哦!这说明就算是玩玩具似的大模型应用也得好好审审稿才行呀!