查看原文
其他

发现一个未知错误时,三种心态会让你死于“黑天鹅”事件

人神共奋 人神共奋 2019-11-07

首发于“人神共奋(ID:tongyipaocha)”微信公众号

每周二原创:职场学习类干货

每周五原创:解读经典,笑看职场

让你错上加错的错误心态


1/4

为什么会有这样的误判


五集迷你新剧《切尔诺贝利》最近成了HBO的又一神剧,刚刚推出的前两集真实地还原了这场人类历史上最严重的核电站事故发生后几十个小时的过程,用剧中人的话来说:“这是人类历史最接近灭亡的时刻之一”。


有人评论,此剧“隔着屏幕也能让人感觉到满满的核辐射”。


剧情都是真实历史事件,我就不介绍了,后果很严重,列举几个数据:上万人死于核泄漏引发的疾病,受辐射侵害者更高达百万人,34万余人失去家园,白俄罗斯23%的领土受到污染……


知乎上的大部分的剧评都是从体制(以至于此片在豆瓣上被删)或人的大无畏地救灾精神出发,这当然是本剧最核心的意义。不过,从本公号定位出发,我更想写一写某些在职场上也很常见的现象。


事故发生后,尽管各种迹象表明,事情可能很严重,但一直在场的4号机组的代理总工程师阿纳托利·迪亚特洛夫却坚持认为:这只是一起普通的火灾。



剧中有一个情节,事故发生一个小时后,这位代理工程师向核电站厂长汇报事故的第一句话就是“事情已经被控制住了”,于是,厂长作出了“不太好,但也不太糟”的结论。



管理者一旦做出了某个明确的决定,整个体系一旦按照某个方向倾斜,再纠正就难了——就算后来发现自己错了。


可见,至少在事件发生后的前几个小时,体制的干扰并不大,管理者的决策完全受到核心技术人员判断的影响。


把责任全部归因到体制上,简单痛快不费脑,当然人人都愿意干。但这么做就忽略了,类似事情可能在任何一个组织中发生。事实上,在之前发生的美国三英里岛核电站事故和之后发生的福岛核电站事故,一开始都因为技术人员的误判,大大低估了事件的严重性。


到底是什么让这个工程师如此坚持,这正是我感兴趣的事。


2/4

技术人员为什么容易固执己见?


观众在看纪录片和历史剧时,往往有一个“后视镜效应”——已经知道结果的人,不自觉地用结果评价过程,就很难明白当时的人们怎么会犯下如此愚蠢的错误,但对当事人而言,事情就这么自然而然地发生了。


所以更好的思考方法是“无知之幕”——假定我们是那位代理总工程师,拥有且仅拥有这个人的一切知识,并不知道后面会发生什么,我们应该如何决策呢?


事故发生一个小时后,你必须判断事情的严重程度,现在摆在你面前的证据有三类:


第一类证据:支持“已经发生了严重的核泄露”


证据一、参与测试者是操作不熟练的夜班人员,而且过程中,发生了异常现象;

证据二、事故发生后,参与抢修的技术人员受到明显的核辐射的伤害;

证据三、技术人员在外围的地上看到了石墨,而石墨是反应堆芯才有的东西。


第二类证据:可能支持“已经发生了严重的核泄露”,但也有别的解读。


手头上的辐射测量仪显示3.6伦琴,看起来不太严重,可这是该表能测量到的最大值。而后来找到的最大200伦琴和1000伦琴的两个测量仪,一开机就坏了,这既可能是测量值爆表,也可能仪表质量问题——因为苏联的产品质量普遍不行,所以后者往往是人的第一反应。


第三类证据:不支持“已经发生了严重的核泄露”


当总工程师质问发现石墨的技术人员:“如何解释RBMK反应堆的堆芯不是融毁,而是爆炸”时(之前最严重的三里岛事故就是堆芯融毁),这个技术人员坦诚:“我也解释不了”。



到了第二集,莫斯科派来的核物理科学家也认为反应堆的堆芯发生了爆炸时,这个问题又被厂长提出,专家同样无法解释。



虽然事后知道,核电站设计本身就有问题,但这个情节意味着,至少在当时,所有人都认为从技术上讲,不可能发生“堆芯爆炸”。


事实上,正是因为切尔诺贝利事件,大家才开始意识到核电站的风险远超想象。


这三类证据摆出来,在代理总工程师看来,事情就很明显了,技术上根本不支持“发生了严重的核泄露”的说法,虽然有部分指标异常,但另有更合理的解释;而所有支持“严重核泄露”的证据,都是间接的传闻。


如果站在“无知之幕”以内,这就是一起可控的安全事故。观众只看到事故本身,而当事人可能之前已经经历了无数或大或小的异常。


只有站在历史的长河上,我们才明白,这就是一起标准的“黑天鹅”事件——即使是此后最严重的福岛事故,也没有发生堆芯爆炸。


而类似这位代理总工程师的“决策错误”,可能已经在我们身边发生过无数次了。


3/4

科学理性的分析,也能让我们误入歧途?


工作难免出现各种各样的事故,其中70%都可以按正常处理流程解决,无非是效率高低、使用资源多少,解决的质量好坏。


20%的事故属于看上去非常头大的Mission Impossible,但最终它不过是由几种常见问题组合而成的“新问题”,而且成功引起了大家足够的重视,最终反而都会解决。


剩下的10%,就是那些看似正常其实另有玄机的事故,常规做法不但会把你带到坑里去,而且浪费你宝贵的紧急处理时间。


这其中更有1%的“黑天鹅”事件,隐藏着巨大的未知危险。


而给我们的工作带来重大损失的,往往就是这10%的问题。所以尽早把这10%和正常70%区分清楚,才是解决问题的关键。


事实上,貌似正常的10%事件中,往往一开始就有不同寻常的征兆,只是由于人类的某些心理活动,它们在有意无意中被忽视了。


心理学家告诉我们,当面对这10%的问题时,有三种倾向会让我们忽视危险。


第一、自我合理化,强行找到一波波的解释。


人类对秩序的渴求非常强烈,以至于为了解释一个不合理的事情,我们会使用一堆理由,一旦找到这些解释,就会感到心满意足,而放弃继续追问:


一开始出现的爆炸被认为是水箱爆炸,因为这是最容易出现的事故;

抢修人员的辐射症状被认为是正常的轻微辐射、碰撞外伤,以及工作人员的胆怯;

辐射检测仪爆表被认为是质量问题;

地上的石墨被认为是烧焦的混凝土块……


问题是,如此之多的反常情况,大部分普通工作人员都会怀疑这些解释,为什么专家反而没有意识到呢?


因为专家有专家的弱点——


第二、过于迷信理论的完整性和技术体系


很多评论质疑,工程师只要到外面看看发生了什么,一切就都明白了。可这些常识才是普通人的想法,而科学技术人员,往往更相信可以解释的逻辑。


优秀的科学家心中总有一个自洽的理想科学世界,世间万物都能用一套理论联系起来,就像牛顿用万有引力去解释几乎所有的力学问题一样。


这种理性的思考正常情况下,让他们不容易被假象而迷惑。如果你和一个物理学家在晚上同时遇到一个外星人一样的东西悬浮在空中,你会觉得世界上原来真个外星人,而科学家认为那不过是一个恶作剧。


可一旦遇到切尔诺贝利这一类无法解释的事件时,反而容易让他们误入歧途,就像一句老话说的:“当你有一把锤子时,你看什么都像是钉子。


科学家一旦犯错,显然比普通人的错误代价更高。


第三、专业对权力的服从


完全撇开体制去讨论“切尔诺贝利事件”,几乎无此可能。


熟悉体制一定明白,“代理总工程师”的“代理”这两个字,就好像“试用期”,只要不出大的差错,“摘帽”指日可待。


在潜意识里,他一定希望这只是一个小事故,这很可能是影响他最初判断的原因。为了维护权威性,一旦在公众场合作出了判断,接下来必然会倾向于“证明自己是对的”。


剧集有一个细节:


操作员对上司“让更多员工来抢修”的命令提出异议时,这位代理总工程师的回答是:“我不知道怎么让你好过些,但我绝对能做到让你不好过。”



当一个技术人员试图用权力去压制另一个技术人员时,他就向错误的决策迈出了关键一步。


接下来的事故汇报,就完全脱离了正常技术讨论的轨道。


厂长和总工程师来到会议室里,他们的第一组对话就是推卸责任:厂长说“自己在睡觉”,代理总工程师强调测试是按照总工程师批准的方案进行的,而总工程师立刻回敬一句,“测试是在代理总工程师的监督下进行”


一番唇枪舌战之后,三人都意识到大家都是栓在一条线上的蚱蜢,“事故并不严重”才是唯一的希望。他们最迫切要做的,就是让上级认定这个结论,把更多的人拉到同一条战线上。


无论是前苏联的集权体制,还是人员来去自由的现代公司体系,最终掌握决策话语权的都不是专业人员。即使是专业人员,也并不完全从技术的角度决策。


就像第二集将军警告前来协调他的核物理专家:“请不要在你不明白的事情上发表意见”,这个“不明白的事情”就是权力运作规则。



这位专家在直升飞机上远远地看了一眼现场,就断定发生了核泄露,因为此时他还没有利益关系;可当晚,当他已经深深地卷入事件后,同样开始用谎言安慰不知所措的普通民众。


第一集的最后,代理总工程师汇报完毕,忽然开始呕吐,浑身无力,瘫倒在地,被守卫架着送去医务室。一路上,他看到失火的反应堆,看到不断有消防队员倒下,出现了严重辐射症状。



此时他才意识到,自己真的犯下了无法挽回的错误,只要之前他稍稍停下脚步,用心而不是用科学道理去观察周围的一切,再放弃一些利益计算,他本不应该犯下这个大错。

 

4/4

黑天鹅事件


纳西姆·尼古拉斯·塔勒布在他的《黑天鹅》一书里认为,人类历史一般是匍匐前进的,唯有“黑天鹅事件”才会导致跳跃式突变,因此,决定历史进程的大多是“黑天鹅事件”。


一个人的职场发展大部分时候也都在“匍匐前进”,也唯有意外事故才会打断这个行程、


意外事故无法绝对避免,最重要的首先是遇上后,尽早意识到,并尽可能减少损失。


可难点在于,如果按照“70%的正常事故”处理,90%的时候都是正确的,但遇上10%的非常事件,你就死定了;


可如果事事考虑10%的非正常事故的可能性,成本又太高,你可能根本撑不到那“10%的非正常事故”发生。


怎么办呢?最重要的一件事:所有决策都要留有余地,要相信科学有解释不了的事情,技术有解决不了的问题,对“自信”保持高度的警惕,处置方案要保留一定的安全边际,在万一判断错误的情况下,有挽回的空间——哪怕是你认为万无一失的事情。


更重要的是在心态上,就像物理学家理查德·费曼写给所有有志于物理学研究的年轻人说的话:“首要的原则是你必须别欺骗自己,因为自己是最好骗的人。”


“电影中的职场人生”系列之十一


“科学决策”系列文章


“砖家叫兽”们为什么常常“不靠谱”?

走出思维陷阱,高手的三个“反直觉”思维习惯

100个不会选择的人,99个不知道这个简单的道理


人神

共奋


颠覆你对职场的看法

长按二维码,关注我


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存