吴三川文里说,学术底线就是绝不能让AI帮着我们生成那些核心观点。现在大学里都发通知了,禁止学生用AI来搞论文的主要内容,哪怕是研究方法和结论这些关键地方,语言表达能力还是考察的重点。以前还有小学生用AI赶作业的事儿呢,大学生拿AI写论文早就不是新鲜事了。随着科技越来越发达,学生们手里的工具包里东西也越来越多。从帮着搭框架到写文稿、做统计分析、画图表……功能太强大了,把学术界搞得挺警惕的。该不该用AI写论文?主流的想法一直很清楚:对于那些重复干活的事儿,比如格式优化或者查文献,AI能提高效率,硬拦着不让用既不现实也没必要;可一旦碰着学术训练的核心部分或者科学研究本身的要求,就得好好管管,把能用不能用的边界划清楚。核心内容创作、深度思考、还有文本撰写……这些高校禁止的内容里哪条不是在说独创性啊?道理其实大家都懂,难的是真去做、克服惰性。有些人总想着把写论文当成任务,想拿AI当“外挂”混过去。其实从训练思维的角度看,这一步真不能偷懒。从一开始模糊的念头变成结构严谨、证据充足的逻辑体系,中间经历了啥?在我看来就是问题意识越来越清晰,理论对话越来越深入,输入和输出反复磨合的过程。以后不管干不干研究工作,“分析问题—解决问题”的能力都是硬通货。 要是点个“一键问AI”,感觉就把事情给简化成一句提示词了。俗话说“专业的事给专业的人做”,对AI也是这么回事儿。把它用在不对的地方问题也不少。学术创新方面,AI太会说学术腔了,有些答案看着很有条理但深究就觉得论证太浅;诚信方面,AI生成的东西可能就跳过了引用注释这些规矩;最隐蔽的是AI还能根据预设的结论去编数据。最近那个关于“AI一作”的实验挺有意思的。它直接把人类学者拉到二作的位置上去做压力测试看看AI能干啥。研究发现AI在激发灵感和梳理逻辑上确实挺强的。它能把碎片东西重新组合起来、跨领域迁移或者突破边界。这就好比把“见多”变成“识广”,关键看你会不会用它当创新工具。 有些学校搞了个“研究生AI+创新能力提升计划”,也是这个道理。“板凳要坐十年冷”这话现在还是没变的道理啊。还没学会走怎么能跑呢?没有独立思考和批判质疑的能力,再厉害的工具也就是绊脚石罢了。