第17章 人类负责什么
到这里,前面几部分已经讲清楚了: • 人类为什么需要 AI • 人类和 AI 有什么不同 • 哪些地方需要 AI • AI 能做什么 • AI 做不了什么 • AI 的边界在哪里 接下来必须进入整本书最重要的一步: **分工。** 因为如果只知道: - AI 很强 - AI 有边界 - 人类也有边界 但不知道怎么分工, 那最后很容易走向两种极端: • 要么什么都自己扛,结果效率低、误判多 • 要么什么都交给 AI,结果主体、判断和责任一起外包 所以,真正高质量的人类 × AI 协作,不是“谁更强”。 而是: **谁负责什么。** 这一章先不讲 AI。 先讲人类。 因为只有先知道哪些部分必须由人来负责, 后面的分工才不会乱。 --- 第一,人类负责目标 这是第一条,也是最根本的一条。 AI 可以帮助你做很多事。 可以帮你找资料、列方案、做对比、搭结构。 但它不能替你决定: **你到底想去哪里。** 目标这件事,看起来像规划问题, 其实不是。 它更深的部分是: • 你想成为什么样的人 • 你到底在乎什么 • 什么事情值得你花几年、十几年去做 • 什么代价你愿意承担 • 什么结果你真的想要 这些问题,不是信息足够多就会自动得出答案。 它们属于一个人的方向感。 而方向感,本身就是人类最不能轻易外包的东西之一。 你可以问 AI: - 我该学什么? - 我该选哪条路? - 我现在最该做什么? 它都能给出回答。 但真正的目标,不是“最合理的建议”。 而是: **那个你愿意真正投入、真正承担、真正走下去的方向。** 所以第一条必须锁住: 人类负责目标。 AI 可以帮助澄清目标, 但不能替你生成真正属于你的目标。 --- 第二,人类负责判断 方向之后,就是判断。 判断和信息不同。 判断也和分析不同。 AI 可以分析。 可以比较。 可以列出优缺点。 可以提供多个版本。 可以提醒你可能漏掉了什么。 但最终那个“我认为这件事值得”或者“我认为这件事不对”的动作, 仍然要由人来完成。 为什么? 因为判断里不只是逻辑。 还有: • 取舍 • 下注 • 风险承受 • 责任承担 AI 不承担这些后果。 而人会承担。 所以判断必须由人保留主导权。 否则很容易出现一种危险状态: 表面上是 AI 给建议, 实际上是人把自己最核心的判断责任悄悄交出去了。 长期这样做, 判断力本身会退化。 所以,AI 最适合进入的是判断前的准备过程。 而不是彻底接管最终判断。 人类负责判断。 这是第二条必须锁住的边界。 --- 第三,人类负责方向选择 目标是终点, 方向是路径。 这两者相近,但不完全一样。 很多时候,一个人并不是不知道自己想要什么。 而是不知道该往哪边走。 例如: - 是先保守积累,还是先激进试错? - 是先赚钱,还是先打基础? - 是继续扩大,还是先收缩风险? - 是保持稳定,还是主动换轨? 这些问题,AI 可以帮你分析得很清楚。 但真正决定“往哪边走”的,仍然必须是人。 因为方向选择里,永远带着一些人类特有的东西: • 你的性格 • 你的阶段 • 你的承受力 • 你的偏好 • 你的长期耐心 • 你此刻的人生处境 也就是说, 方向不是抽象逻辑最优解。 方向是: **在真实处境中的可承担选择。** 而 AI 并不真正活在你的处境里。 它可以看结构, 但你要走这条路,还是另一条路, 最后必须是你自己来定。 所以,人类不仅负责终极目标, 也负责路径方向。 --- 第四,人类负责价值排序 这是最容易被忽略、但特别关键的一条。 很多问题之所以难, 不是因为信息不够。 而是因为价值冲突。 例如: • 安全和自由,哪个更重要? • 短期收益和长期复利,哪个更重要? • 关系和效率,哪个更重要? • 真诚和利益,哪个更重要? • 速度和稳健,哪个更重要? AI 可以把这些冲突列得很清楚。 甚至可以把每一边都说得很有道理。 但它不能替你决定: **什么在你这里排第一。** 因为价值排序不是客观事实。 它不是数据库里现成的答案。 它嵌在一个人的人生观里。 一个人真正是谁, 很多时候不是看他会说什么大道理, 而是看他在冲突里把什么排在前面。 所以这一块不能外包。 人类负责价值排序。 AI 可以帮助你看清冲突, 但不能替你决定轻重。 --- 第五,人类负责承担后果 这一条很实际,也很冷。 很多人谈 AI, 会谈很多能力、很多效率、很多未来。 但现实中最重要的一条很朴素: **谁承担后果,谁就必须保有最终主导权。** 投资错了,亏钱的是你。 职业路径走偏了,承担的是你。 关系做错了,受伤的是你。 健康透支了,付代价的是你。 时间浪费了,失去的也是你自己的生命时间。 所以,人类在整个协作系统里,有一个无法外包的角色: 人类负责承担后果。 而正因为承担后果, 人类就不能把目标、判断、方向、价值排序全部让出去。 这是分工最现实的一条底线。 --- 第六,人类负责提出真正的问题 这一点很多人容易忽略。 AI 很会回答问题。 这当然很好。 但一个系统真正高级的地方, 往往不只是回答能力。 而是: **提出问题的能力。** 很多时候,人与人真正的差别不是答案快不快。 而是: • 你看到了什么问题 • 你有没有意识到真正的问题在哪里 • 你追问到了哪一层 • 你愿不愿意面对那些不好看的问题 这件事很重要。 因为问题定义往往决定了整个思考的方向。 AI 可以帮你优化问题、展开问题、改写问题。 但那个最值得你花生命去问的问题, 常常还是来自人。 来自: - 经验 - 痛感 - 不满足 - 责任感 - 价值追问 所以,在协作系统里, 人类不只是负责目标和判断, 还负责提出那些真正重要的问题。 --- 所以,人类到底负责什么 到这里,可以把这一章压缩成一个清楚的总结。 在人类 × AI 的协作系统里, 人类最核心负责的,是这些部分: • 目标 • 判断 • 方向 • 价值排序 • 后果承担 • 真正问题的提出 这些部分有一个共同点: 它们都和主体、责任、取舍、生命处境直接相关。 这也意味着: AI 越强, 越不代表人类可以什么都不管。 恰恰相反。 AI 越强, 人类越要守住那些真正属于人的部分。 否则,能力虽然放大了, 主体反而变弱了。 --- 这一章为什么重要 这一章不是为了抬高人类, 也不是为了打压 AI。 它真正的作用是: **给协作划出主轴。** 只有主轴清楚, AI 才能真正发挥作用。 如果主轴不清楚, 那最终就很容易变成: • 人该负责的不负责 • AI 不该接管的接管了 • 表面效率提升了 • 深层判断却越来越空 所以,后面一切分工,都要建立在这一章之上。 --- 一句话结论 **在人类 × AI 的协作系统里,人类必须负责目标、判断、方向、价值排序、后果承担,以及真正重要问题的提出。**