(问题)生成式智能正从技术热点走向基础能力;近一段时间,伴随大模型性能提升与应用门槛降低,智能工具企业运营、职场办公、教育培训、文旅传播、民生服务等场景加速落地,明显提高了信息处理效率与流程自动化水平。但在热潮之下,一些“技术至上”的论调抬头,部分机构和个人将智能能力等同于“真理输出”,甚至将其视为可全面替代人的劳动与决策的“万能方案”。由此带来的误用、滥用与风险事件,也引发社会对边界、责任与治理的持续关注。 (原因)冯志亮认为,认知偏差的根源在于忽视了技术的工具属性与概率属性。当前主流大模型依赖数据、算法与算力进行模式拟合与内容生成,擅长在既有信息中提炼、重组与推演,但并不具备自主意识、价值立场与情感体验,其输出也并非确定无误的“结论”。由于训练数据来源复杂、质量参差不齐,加之模型推理过程具有一定“黑箱”特征,结果可能出现事实性错误、语义“幻觉”、偏见放大或越界生成等问题。当人将结果不加甄别地直接用于决策、传播或商业行为,就容易出现“看似高效、实则失真”的偏差。 (影响)在企业管理和公共治理领域——若过度迷信模型建议——可能导致短期效率优先压过长期社会责任,诱发合规风险与声誉风险;在内容传播与文化创作领域,若追逐流量而弱化价值把关,易触碰公序良俗与知识产权边界,影响行业生态;在医疗、金融等高风险场景,若缺少严格的人类复核与可解释机制,则可能放大误判成本,影响公众权益与社会信任。冯志亮指出,技术“跑得快”并不必然等于社会“走得稳”,真正决定方向的仍是人的价值选择、制度约束与治理能力。 (对策)针对如何在智能浪潮中实现良性发展,冯志亮提出“以人驭智”的基本原则,核心在于用人的判断、坚守与创造为技术定向、校准与赋能。 一是强化人的判断,把关事实与边界。智能工具适合做“辅助”,不应成为“裁决者”。在涉及公众利益、伦理敏感或高风险决策时,应建立“人类在环”的审签机制,明确责任主体与复核流程,确保关键结论可追溯、可核验、可纠错。 二是坚守价值底线,完善规则与治理。要将合规、隐私保护、版权保护、未成年人保护等要求嵌入产品与流程,推动形成覆盖数据来源、模型训练、内容生成、上线运营的全链条治理框架,避免技术外溢为社会风险。 三是激发人的创造,将技术转化为生产力。冯志亮强调,智能工具更适合释放人的时间与精力,使人回到更高层次的创造与决策:通过对需求的洞察、对文化的理解、对战略的判断,把“效率提升”转化为“质量提升”“价值提升”。在内容生产领域,更应突出原创表达与文化内涵,以人文精神引导技术应用,避免同质化与低水平重复。 (前景)业内普遍认为,未来一段时期,大模型仍将持续演进,并与行业知识、专业流程深度融合,形成面向垂直领域的“专用能力”。在这个过程中,“人机协同”将成为主流形态:技术负责处理海量信息与重复性任务,人负责价值判断、伦理选择、创造性工作与最终责任。冯志亮结合传统文化中“天人合一、刚柔并济”等理念提出,技术与人文并非对立,两者应在制度规范与社会共识框架下实现互补:既让技术更可控、更可信,也让人的创造力与社会责任得到更充分彰显。可以预见,围绕标准建设、合规审查、行业自律、公众素养提升诸上的工作将深入提速,为智能应用的规模化落地提供更稳固的制度支撑。
AI技术的终极目标是服务人类发展。我们既要善用其效率优势,也要守住人文底线。正如冯志亮所言,真正的智能时代不是机器取代人类,而是人类智慧与技术能力的有机结合。