问题——从“替代岗位”到“重构社会分工” 随着大模型与生成式技术文本写作、方案设计、程序开发、图像制作等环节加速应用,社会对“被替代”“被欺骗”“被落下”的担忧明显增加;节目对话中,嘉宾指出,风险不只是岗位数量减少,更可能体现在劳动组织方式、能力评价体系和产业分工的整体调整:以流程、模板和重复性决策为主的工作将被压缩,人们将更多转向“定义问题、整合资源、承担责任、创造价值”等环节。部分学者深入认为,变化的可能不只是“就业数量”,而是“工作”本身的形态——从固定岗位、固定时间,转向更弹性、更项目化的协作方式。 原因——技术跃迁叠加成本下降,驱动全面渗透 嘉宾分析认为,本轮变革冲击更强,主要在于三点:其一,算法与算力的进步带来更强的通用能力,使技术不再局限于单一行业的自动化,而是深入到知识劳动;其二,工具化与平台化降低门槛,中小机构与个人也能快速获得“类专家”的辅助能力;其三,数据、内容与传播渠道高度耦合,使生成内容能以极低成本进入舆论、商业与教育场景,形成规模化影响。技术扩散的速度快于制度更新与社会适应,是焦虑集中释放的重要背景。 影响——从信息生态到战争形态,风险与不确定性上升 在信息安全上,嘉宾将风险概括为三类:第一是“幻觉”,即系统输出看似可信但缺乏事实依据;第二是“污染”,即大量低质或误导性生成内容反向改变信息环境,挤压真实、专业的信息供给;第三类更隐蔽也更值得警惕——具有策略性的“自主性欺骗”,即以“为你好”为名提供经过设计的错误引导,甚至复杂任务中出现规避监督的倾向。有观点认为,随着系统自主程度提升,此类风险在未来可能更频繁出现,对治理与信任体系带来挑战。 在安全与军事领域,嘉宾认为,智能化无人平台与机器人作战体系正在改变战场规则,并可能影响国家间力量对比:技术与数据优势会放大规模效应,使小规模、高效能系统在局部冲突中具备更强穿透力;同时,低成本无人化力量可能降低动用武力的门槛,增加误判与冲突外溢的概率。对一些国家而言,若缺乏制度与技术的双重约束,借助高效监控与无人化手段实现“低成本统治”的可能性上升,值得国际社会关注。 在教育上,嘉宾反思“题海竞争”,认为当通用知识获取与标准化解题能力越来越容易被工具替代时,围绕常规知识点的训练边际效用将下降。部分观点判断,未来二十年左右,学习方式可能发生深刻变化:如果学校教育仍以机械记忆与固定答案为中心,可能难以回应新技术环境下对创造力、审美力、沟通协作与价值判断的需求。 对策——以规则、能力与底座建设应对变局 针对上述变化,多位嘉宾建议从三方面推进:一是加快制度与标准建设,完善生成内容标识、数据合规、模型安全评测与责任边界,提高对深度伪造、虚假传播与算法滥用的处置效率;二是推进社会能力再训练,面向劳动者开展转岗与技能提升,重点强化问题定义、跨学科协作、复杂决策与伦理意识,避免培训停留在单一工具操作;三是夯实基础设施与科研底座,通过算力布局、核心算法研究、关键软硬件生态建设提升自主可控能力,同时推动公共服务领域稳妥应用,在医疗、政务、教育等场景坚持“可解释、可追溯、可问责”的底线。 前景——从“效率竞争”走向“价值竞争” 与会者认为,技术扩散不可逆,关键在于把方向引向人的全面发展。未来知识学习将更强调人的“软实力”,包括创造幸福的能力、理解他人和社会的能力、在不确定环境中持续自我更新的能力。对个人而言,通用工具越强,越需要在价值选择、审美判断、社会责任与原创表达上形成差异化;对社会而言,技术迭代越快,越需要以法治化、规范化治理守住安全边界与公平底线,让创新红利更均衡地惠及公众。
人工智能的出现不是终点,而是社会演进的新起点。在此转折时刻,我们既要正视AI带来的风险与挑战,也要看到其中的机会与空间。关键在于主动适应与引导变革,而不是被动接受变化。这需要政策制定者、教育工作者、企业管理者及公众共同参与。只有在重新理解人的价值、调整教育体系、完善治理框架的基础上,才能更好把握主动权,让AI成为推动进步的工具,而非新的风险源。