想让AI变成撒切尔夫人的声线?如果你在网上泡得够久,可能对谷歌翻译这类网页转换工具并不陌生,它能把乌兹别克语变世界语。但要是你想折腾点特别的,比如"LinkedIn腔调"、"Z世代黑话",甚至"饥渴撒切尔夫人",今年年初,好多网友惊喜地发现Kagi翻译这一AI驱动的工具能搞定这些离谱的任务。尽管这展示了大语言模型好玩的一面,也暴露出让普通用户随意摆弄通用LLM的隐患。 Kagi本来是Google日渐失色的搜索产品的付费对头,2024年公司推出了Kagi翻译,声称比谷歌和DeepL还要简单好用。当初他们表示这工具是大语言模型的组合体,会为每个任务选最佳输出,"有时也会犯些正忙着修的怪癖"。头一版界面就是个下拉菜单,能挑244种源语言和目标语言。 到了2025年2月,一位Hacker News的不速之客发现你能把目标语言设成"带波士顿口音的粗野男人",系统居然没报错。一年多前就有个用户发现过这种彩蛋,可惜没火起来。最近Kagi自己也在社交账号上晒模仿"Reddit风格"或出麦肯锡顾问腔的本事。不过到了周二早上,一个Hacker News用户曝出"Kagi现在支持LinkedIn腔作为输出语言",这种不正统用法才真的出圈了。 在那个热帖里,大家都看到了一个现象:你直接在Kagi翻译网页界面的搜索栏里随便输个词当目标语言,底层的AI就会想办法给你整活。从那以后,各路网友纷纷来测试最疯狂的脑洞。有人用它批判媒体、开政治玩笑、嘲科学否定者或者骂大富豪。也有人想模仿卡尔·萨根、齐泽克甚至沃纳·赫尔佐格这些人的说话腔调。还有人更无聊,要翻成"小小猫咪"或者专门对编程语言下手。 Kagi官方团队也跟着乐呵,鼓励大家用"LinkedIn腔"翻译来"完美混入那个群体"。这种感觉仿佛回到了ChatGPT刚出来那会儿,大家还在惊叹它那基于Transformer的文本引擎有多么神奇。那时你随便让它写首沃贡诗歌或者模拟2000年左右PowerPC跟英特尔论坛吵架的口吻,就能引来不少围观。大家都爱把这种有趣的把戏分享给朋友看。 后来几年AI的热度越来越高,行业巨头纷纷鼓吹这些大模型会抢走咱们饭碗或者搞出灭世级的智能体。Kagi把这种大模型塞进了一个"翻译器"的盒子里,又把那种造新词的创意能力带回来了。跟谷歌爱脑补幻觉或者AI治疗机器人乱出馊主意不同,这儿的安全风险很小。谁也不会把Kagi当神谕或者整个软件工程组用啊。 Q1:Kagi翻译是啥玩意儿?有啥独特之处? A:Kagi翻译是Kagi推出的AI驱动翻译工具,说是Google翻译和DeepL的更好替代品。它用大语言模型组合干活,既能翻常规语言,也能模仿各种腔调风格,像"LinkedIn腔"、"Z世代黑话"这类非传统的"语言"都不在话下。 Q2:为啥Kagi翻译能模仿这么多奇奇怪怪的说话方式? A:因为它是靠大语言模型技术撑着的。你能直接改URL参数或者在搜索栏里输入想要的目标"语言",AI会尽力满足你的要求。这就让用户可以随意指定要翻成哪种风格或哪种人群的说话习惯。 Q3:用它来模仿各种风格会不会有啥风险? A:虽说大多时候也就图一乐风险不大,但要是让AI模仿"一直说脏话的人"这种不正经内容,弄出来的结果可能让Kagi公司不太想沾边。这就是不把大语言模型输入管好会发生的事儿!