AI时代术语规范化困局:从"token"翻译之争看科技名词本土化的系统性问题

人工智能领域中的关键术语“token”,目前在中文翻译上缺乏统一标准;作为大语言模型处理文本的最小单元,此词汇在技术文档、学术论文和产业应用中出现了多种译名——既有直接采用英文——也有“词元”、“模元”、“令牌”等十余种不同翻译。这种不一致已经影响到学术交流、技术推广和标准制定。

“token”中文命名之争,是中国科技语言现代化进程中的缩影,也是关于准确表达与传播效率的深度讨论;只有坚持科学原则,尊重语言规律,加强协作,才能让科技知识真正走向大众,实现知识共享与创新驱动发展。