机器很强,但它替代不了“成为人”这件事
2025-09-10
机器很强,但它替代不了“成为人”这件事
先把问题摆正:替代什么,凭什么替代
当我们问“AI能不能替代人类”,容易把它简化成“AI能不能干活”。干活只是人的一部分。人不只是“做任务的系统”,还是“有体验、有关系、有承诺的存在”。所以这个问题要拆成两层:一层是工程层面的“能不能把事情做对”;一层是人类学层面的“能不能以人的方式在世界里安身、被信任、被承认”。前者看性能,后者看意义与合法性。两层都过了,才谈得上“替代”。而在这两层上,都有清晰的边界。
从AI专家的视角:技术能做到哪儿,做不到什么
1)可计算,不等于可替代
很多现实任务可以被形式化(识别影像、总结文献、写代码),但“把问题形式化”本身往往需要情境判断与价值选择。把问题定义清楚,是人擅长而机器仍受限的环节。经典的“莫拉维奇悖论”提醒我们:对人类来说看似“本能”的事(在开放世界中抓要点、体察弦外之音)恰恰最难工程化。
2)分布外的不确定:模型强在“已知的相似”,弱在“未知的变形”
现代AI学到的是大规模统计规律。它在熟悉分布里极强,但面对“分布外”的突变、制度变更、罕见事件、隐喻翻新,可靠性会明显下降。人类的强项是“小样本+类比+价值锚定”的快速应变,尤其在没有先例的陌生场域。
3)“对齐”的技术极限:把能力做强,不等于把目标永远对齐
即便我们能让系统遵循某套规范,也无法在所有情境里预设全部价值冲突。目标在现实里会互相打架:效率 vs. 公平、隐私 vs. 安全、短期收益 vs. 长期后果。这些冲突需要承担者来裁决与负责。机器可以执行,责任却需要主体来背。
4)具身性与常识的“开放世界问题”
今天的主流系统大多是“脱身的”(disembodied):它们没有持续的身体—环境耦合,也不需要像人那样靠嗅觉、疼痛、疲劳、空间位置去理解世界。缺乏这种长期的“在世经验”,会让它在微妙的社会线索、暗示、礼节、暧昧地带里失手。把这些全数表成“规则”几乎是不可能任务。
5)可验证≠可问责
工程上我们可以做A/B测试、做形式化验证、加审计轨迹,但问责不只是“谁写了这段代码”,还包括“谁应承担后果”。人类社会的法与德要求“能被惩戒、能被改过”的主体。算法本身没有羞耻、悔恨、赎罪能力,也没有“自我叙事”去承担改变,这就是问责的终点。
小结一句:AI能极大增强人的感知、记忆与推理外延,却难以自行完成“问题定义—价值裁决—责任承担”的闭环。这恰恰是“不可替代”的关键。
从人类学的视角:什么叫“以人的方式活着”
1)主观体验(qualia)与“过一种生活”
人类不只是处理信息,还在“感受”。苦乐、羞愧、自豪、亲密、失落,这些体验是我们行动意义的来源。哲学家迈克尔·波兰尼有句名言:“我们知道的东西,往往多于我们能说出的”(We can know more than we can tell)。这类“默会知识”浸润在身体、手艺、气口和场面里,很难被完全外化成符号。
2)“厚描”与语境:同一个动作,不同的世界
人类学家克利福德·格尔茨提出“厚描”:同样是眨眼,可能是抽动,也可能是打暗号。意义不在动作本身,而在关系与场域。AI可以描述动作,但“读场”需要进入共同体的脉络、历史与隐性规则——这是人类长期共同生活沉淀出来的能力。
3)礼物、承诺与信任的循环
马塞尔·莫斯在《礼物》中揭示,人类社会靠互惠与人情维系。很多“非市场”的行为(照护、托付、留面子)构成了社会的真正粘合剂。机器可以模拟互动,但它不承受“失礼的代价”,也不需要靠声誉在同侪中活下去;因此它很难成为“把关系维系在一起”的道德节点。
4)合法性的来源:谁有资格说“应当”
马克斯·韦伯区分传统型、魅力型与法理型权威。机器不具血缘、宗教或魅力合法性,它也并非经由民主过程获得法理正当性。用算法去发布“应该做什么”的宣告,缺了社会赋予的那一层“资格”。这不是性能问题,而是政治与伦理的根。
5)死亡意识与长远承诺
人知道自己会死,因此会构建传承、仪式、纪念、遗嘱,把短期行动嵌入“更长的故事”。这种“带着死亡工作的能力”塑造了意义感、牺牲与责任。一个不老不死、无痛无惧的系统,很难天然生成这套动力结构。
哪些场景特别难被替代:把抽象落到地面
1)终极关怀与伦理抉择
临终关怀、灾害安置、冲突调解,需要的不只是“最佳方案”,而是“合适的安放”。这包含悲伤的陪伴、羞耻的抚平、罪与赦的对话——都是深度的情感劳动与道德勇气。
2)政治领导与公共信任
在不完全信息下团结多元人群、为不均衡的损益背书、在危机里承受骂名,这些“合法性生产”无法外包给模型。算法能做参谋,不能当“替骂者”。
3)司法量刑与“同情的正义”
法理之外,法官会考虑被告的人生脉络、悔意、受害者的感受、社区的修复。正义不仅是算术,还是共同体修复的艺术。
4)亲密关系与育儿
“给予与被需要”的互塑,是人的核心经验。儿童通过与主要照护者的情感调律发展信任与自我边界。服务型AI能减轻事务,但无法替代“看见我”这种被确认。
5)范式转移式创造
把错位的事物拉在一起、为旧世界命名新秩序(从“疾病是瘴气”到“病原体”,从“以太”到“相对论”),靠的不是穷举,而是审美—直觉—大胆赌注的合奏。机器能枚举组合,人来给“何为新”的元判断。
6)艺术的“现场性”
艺术不仅是作品,还是现场的共振、流汗与眼神。它把观众变成参与者,把“此时此地”的不确定性本身变成意义的一部分。可复制的仿真,常常恰好失去“不可复制”的灵魂。
人—机最优分工:怎么让“不可替代”真正发光
人定义“为什么”:价值方向、伦理边界、风险承受、成败的社会后果。
机执行“怎么做得广和快”:检索、聚合、推演、生成多稿、找盲点。
人完成“最后一公里”:把结论安放到具体的人与关系里;做出承担后果的裁决。
联合的节律:先由人的直觉给出方向,再让机器展开宽度;机器暴露不确定处,人回到现场补深度;循环迭代。
一个好用的小框架,落在任何协作上都管用:
我这次要解决什么核心问题;到什么精度就足以支撑决策;继续深入的时间—收益比还划算吗;有没有更重要的事需要我这个“能承担的人”。答完,就停或进。
常见误区:别把“像人”当“是人”,别把“高效”当“替代”
拟人化错觉:流畅的语言、贴心的语气,会诱导我们把系统当作“有意图的他者”。记住:系统并不“在乎”你,它只在最优化目标。
“平均值陷阱”:在均值任务上,AI像“超级熟练工”,在黑天鹅与价值冲突处,人必须站出来。
责任外包:把艰难决定推给算法,短期省心,长期侵蚀制度的信任土壤。
一张对照表:该交给AI,还是保留给人
领域 | 更适合AI的环节 | 必须由人承担的环节 | 原因 |
---|---|---|---|
医疗影像、文献综述 | 海量检索、初筛、模式识别 | 告知坏消息、风险—利益权衡、个体化方案 | 牵涉尊严、价值冲突与问责 |
公共政策 | 情景推演、数据整合、影响评估 | 价值取舍、分配正义、舆情承担 | 合法性与信任不可外包 |
教育 | 个性化练习、即时反馈 | 价值引导、挫折陪伴、榜样力量 | 教育是人成为人的过程 |
产品与运营 | 生成创意池、A/B组合、用户分群 | 品牌边界、伦理红线、危机处置 | 需要在不完全信息下背书 |
艺术创作 | 草图、变奏、风格迁移 | 立意、风骨、现场 | 意义来自“谁在对谁说什么” |
给个人与组织的可执行建议
1)把“替代”改成“负责”:凡关乎价值冲突与后果承担的环节,设定明确的人类责任人。
2)把“效率”改成“厚度”:在人与人的接触点上,多留时间制造“厚描”(倾听与回应),让关系而非流程来兜住信任。
3)把“指标”改成“接口”:任何跨部门协作,都先对齐“谁给谁什么、什么时候给”,以“接口清单”替代“相互解释”。
4)把“预设对齐”改成“滚动校准”:定期复盘“AI在哪些情境帮到了我们、在哪些情境制造了错觉”,更新分工地图。
5)把“恐惧被替代”改成“投资不可替代”:多投在判断力、叙事力、关系力与伦理勇气,这些是你与机器的本质区分度。
延伸阅读(中文可找到的译本或通行版本)
迈克尔·波兰尼:《默会知识》(The Tacit Dimension)——关于“我们知道的多于我们能说出”。
克利福德·格尔茨:《文化的解释》(The Interpretation of Cultures)——“厚描”的方法与意义。
马塞尔·莫斯:《礼物》(The Gift)——互惠交换与社会粘合剂。
约翰·希尔勒:中文常译为《心灵、脑与程序》相关论文——关于“语法不足以产生语义”的思想实验。
休伯特·德雷福斯:《计算机不能做什么》《计算机仍然不能做什么》——早期但洞见仍在的批评。
特温格尔·弗洛雷斯 & 费尔南多·弗洛雷斯:《理解计算机与认知》——情境行动与“失效中的理解”。
雪莉·特克尔:《群体迷航》《孤独的人群》(Alone Together)——人机关系对亲密与自我构成的影响。
欧内斯特·贝克尔:《对死亡的否认》——死亡意识如何塑造文化与意义。
卡罗尔·吉利根:《不同的声音》——关怀伦理与道德判断。
结语:AI能放大人的手,但替代不了“人要成为什么样的人”
把活儿做对,很重要;把人安放好,更重要。AI能把我们从大量重复、冗长的信息劳动中解放出来,让人把时间与心力投到判断、承诺、抚慰、创造和承担上。真正成熟的社会分工,不是把人挤到边缘,而是把人放回到“必须由人”之处——在那里,我们决定何为善、何为美、何为可承受的代价,决定在不确定的世界中,如何成为彼此可以依靠的人。
发表评论: