巴菲特说过:“近似的正确,好过精确的错误”。
假如你在一个原始森林,迷了路,手上拿了张这片森林的详细地图,天空中还有一颗北极星,请问,该如何走出森林?
一般有两种方法:
- 拿着地图仔细找出路。
- 抬头一直往北极星的方向走。
我们往往被教导以第二种方式走出森林,因为:
- 前者强调的是精确,但如果过于执着于地图细节,而忽略丛林密布会产生很多变化,前人的经验不总是靠谱的,同样会迷路,而陷入「精确的错误」,好像依据地图可以找到一个每一步都确定的步骤,实际上,是做不到的,所以,走不出森林;
- 后者强调的是近似(模糊)的大方向,讲究的是,只要大方向对,就一定能走出去森林,这其实就是「近似的正确」。
近似的正确,强调的是正确;精确的错误,强调的是精确。
巴菲特的价值投资理念下的“近似的正确”,帮助他穿越了周期,但人类认识到的真理都是相对的,何况巴菲特的一句名言?只能说,这句话是符合他的价值投资理念的,但它同样是有边界的。
难道真没有第三种走出森林的方法吗?
精确的正确
以上提到了二组词汇,「近似的正确」、「精确的错误」。试想,巴菲特是在何种背景下提出它们的?
其实就是认识到“事物发展结果的不确定性”下提出的。具体来讲,是三方面:
- 动态性。动态性也可以用“易变性”来替代。动态性指环境的快速变化和不稳定性。比如,某时期消费者对健康食品的需求可能较高,而另一个时期可能更关注环保产品。这种市场需求的变化增加了企业在产品开发和营销方面的不确定性。
- 复杂性。复杂性也可以“联系性”来替代,联系性指环境中各种因素和利益相关者之间的相互关联和相互作用。比如,组织内部涉及多个部门、团队和员工,各个层级之间有着复杂的工作关系和信息流动。管理者需要处理各种决策和问题,例如资源分配、目标设定、人员管理和协调合作等。这种复杂性使得组织管理充满挑战,因为不同的因素和变量相互影响,可能导致不确定性和难以预测的结果。
- 模糊性。可以用“多义性”来替代。多义性指信息的模糊和多种解释的可能性。比如,一家公司发布了一则广告,使用了一个有多种解释的隐喻或象征。不同的人可能会对这个隐喻有不同的理解,导致广告的意图和信息传达变得模糊不清。
这些原因都导致真正有见识的人认识到“近似的正确,好过精确的错误”,毕竟北极星是不变的,典型如阿里巴巴,马云在决策要不要做“云计算”这件事,不是靠着精确的模型推演出来的,而是靠着“让天下没有难做的生意”这种“近似的正确“的大方向决策的。
但是,我们可以反过来想,假设“事物发展结果的确定性”较高或者可以变得更高的领域呢?也应该使用“近似的正确”吗?
新生代的创业家张一鸣则说:人和人是有算力差别的,当你算力达到足够高的时候,连艺术都可以是精确的,只是因为你的算力不够高才求模糊解。
这里我们首先要搞清所谓的“正确”与“错误”究竟是如何导致的,大道至简,是「模型拟合数据」的效果导致的。
实践的本质就是「模型拟合数据」技术与艺术。
我们总在实践中追求正确、避免错误,方法无法就是「模型」与「数据」两个方向发力。当巴菲特意识到自己无法「精确的正确」时,就使用「近似的正确」来替代,以避免「精确的错误」。
巴菲特难道就想「近似」吗?关键是能否变得「精确」,得回到「模型与数据」。
试想,官僚主义特别重的企业一群高学历的人才不断地开会、脑暴,却从不仔细调查市场、收集信息,他们试图找到一个最精确的预测模型,能否达到?
他们大概率会犯一种「精确的错误」。
原因则很简单,经验世界的预测靠的是归纳模型并非通用模型,而是在学校学习到的、和牛人交流得到的、积累的工作经历等间接与直接经验的重构而成的,但无论哪种经验,归纳出来的模型好坏取决于数据质量的优劣。
优质的数据,一定要克服上述「动态性、复杂性与模糊性」的特点,很明显:
- 他们不去市场上调查,那么,数据一定是有滞后性的,没有克服动态性;
- 人脑是处理不了网状数据的,那么,没有克服复杂性;
- 团队与用户均无法普遍理性,信息的传递上,难以克服模糊性。
此时的决策,真不如巴菲特、马云那种「近似的正确」。因为,他们的模型与数据都是近似的,是不可能得出「精确的正确」的。
反过来讲,如果能够克服以上三种特点,那么,就可以达到一种「精确的正确」。但这又是一种几乎不可能的任务,因为这要满足四种假设:
- 所涉及到的数据是已知的/非动态的,才能克服数据获取的立体与全面性;
- 团队成员可以与所有用户建立联系,并且彼此之间是坦诚的,才有可能获得立体与全面的数据;
- 人脑是可以处理网状数据的,才能克服数据结构的复杂性;
- 团队成员与所用用户都是理性的,才不会造成语义的模糊性。
很明显,这每一种假设,都是天方夜谭,不可能的任务。
可以转化一种思维,我们不必「达成」以上假设,而寻找较为「逼近」以上假设的领域,是否就可以达成某种不是「精确的正确」而是「精确的近似」的境界呢?
答案已经很明显,当然可以,这里的「近似」正是指数据与模型本身的近似/逼近以上四种假设。
而且,我们面对的真实世界,还有很多领域本可以达到「精确的模糊」但因为算法、算力不够而没有达到,比如,管理的数字化,它该如何逼近以上四种假设?若「逼近」以下特点:
- 数据是已知的;
- 组织是坦诚的;
- AI能处理复杂;
- 组织是理性的。
则,这个领域则还有很大的精确空间,反而,不应该去追求所谓的近似的正确。
管理的数字化所面对的数据,多是已知的,只是比较分散与离线,组织的复杂性是可以被AI建模的(在当管理开始成为镣铐,如何重新理解管理?已经阐述清楚),但组织不总是坦诚与理性的。
这里的关键问题开始转换为:既然组织是不可能完全坦诚与理性的,那么一定会有各类偏见/模糊,比如,就算是同一种管理理念,在不同的组织中,也会产生不同的理解,这就是一种模糊性,关键是这种模糊性能否被正确的容纳与处理。
以往的管理模型是不可能考虑这种模糊性的,因为「数据结构」与「算法」都很落后。
精确的近似
比如,海氏评估法,它建立了这样一个数据结构:
- 知识水平与技能技巧
- 专业理论知识
- 管理诀窍
- 人际技能
- 解决问题的能力
- 思维环境
- 思维难度
- 承担的职务责任
- 行动的自由度
- 职务对后果形成的作用
- 职务责任
而后,为这个数据结构定等级,表达可能不一样,但意思就是低、中、高这种区分,而后为每一种等级定一种平均水平分数(也称常模),比如:
![[Pasted image 20241230210721.png]]
这样,就自上而下地完成一种「数据结构」。
它的算法是:
- 分析每个职位的三要素:知识水平和技能技巧、解决问题的复杂性、承担的职务责任。
- 在参照表格中选出数字
- 根据公式计算得分
- 查知识技能水平表得分 A
- 查解决问题的能力表百分数 B
- 查承担的职务责任表得分 C
- 分数计算公式:职务评价得分= A×(1+B)+ C
这样也是一种量化方式,但是,这种自上而下的方式,其实也是一种「精确的近似」,但是这种近似,就如同吃药,可能会有这样一种说明:50KG的人吃10克、60KG的人吃15克、70KG的人吃20克。
表面上看,这十分精确,但是,并没有考虑不同体重的人的个体差异,比如,同样为60KG的人,某些人吃了15克没事,但某些人因为有其他疾病却不能吃这么多,这时,这种量化,其实很容易导致「精确的错误」,可能导致加重原来的病情,因为,这种错误,源自模型本身的数据结构的局限、对个体差异的数据收集的模糊性。
海氏评估法最大的问题也在于其「数据结构与算法」本身的局限,它无法处理至少以下三种数据:
- 动态性方面,企业动态发展过程的随机数据极难被及时处理,这种评估的方式成本太高,每调整一次都需要费很大力气。
- 复杂性方面,各类一个员工在每次任务中所使用的技能、资源情况是一张复杂网络图,里边有很多很显性但只能被人脑记忆却无法被海氏评估法处理的数据,颗粒度太粗。比如,某次总部的“折扣政策”对某区域销售额提升有很大的支持,但对品牌却有某种损失,海氏对这些视而不见。
- 模糊性方面,主要是不易联网的“隐性数据”不可以计算,如“老板给的潜在压力”是不可能被海氏评估法纳入其数据结构进行计算的。
海氏评估法将这些微观的“动态、复杂、模糊”全部忽视不管,用一种高度线性的方式处理,但,这是一种使用低维的线性来处理高维的复杂的方式,造成了巨量的信息损失,失真性很重。
更精确的做法应该是,将高维的复杂本身先呈现出来,在高维空间进行线性区分的方式处理。
因为海氏无法处理以上类别的复杂数据,所以,这种「精确的近似值」其实很粗。
而且,这种量化出来的近似值也丝毫不关联商业收入等财务数据,从而,海氏评估法其实是一种忽略了组织的关系网、信息权、财务流的原始、低维的量化方式。
这是一种比人类感性更精致的感觉,并不十分理性。
这种巨大的模糊性让岗位评估一定会出现很多不公平,凭什么“硕士毕业的高才生比有三年工作经验的大专生职级更高(或者相反)”?
海氏评估法这种在传统的管理范式中很优秀的技术,使用的都是同一套方法论,如下:
1、明确分析对象的核心要素结构。比如,海氏评估法是技能水平、解决问题的能力与职位责任。
2、对每一个要素进行定性评级。
3、对每一个评级后的要素进行定分。
4、对每一个具体对象进行具体分析、定分,按公式进行加总,得出总分。
5、据评级总分数来确定分析对象在企业中的位置。
如果分析对象是岗位,那么,最终的结论就是职级;
如果分析对象是绩效,那么,最终的结论就是贡献度,这时,被叫做360度评估;
……
因为过粗的颗粒度,确实需要升级。
Valor的「精确的近似」
Valor在“数据结构与算法”上恰恰是解决了以上问题,它通过复杂网络建立一个“任务、人员、技能与资源”的通用模型,所谓通用,即它并非经验模型。
上文所述的那些“高学历牛人”的经验模型之所以容易导致「精确的错误」,正是因为经验模型的延展性太弱、包容性太差,不具备普遍性,面对动态性、复杂性与模糊性,它并不能及时调整,而面对不确定性,如果模型没有及时调整的能力,那么,就会出现“拿着锤子,看什么都像钉子”的窘境,自然就会犯「精确的错误」。
而通用模型的好处是,它延展性强、包容性极好、具有普遍性的特点,所以,它可以面对易变、复杂与模糊的现实进行更有效的建模与及时的调整能力。
但Valor提供的仍然是一种「精确的近似」,只是这种近似值并不粗犷,反而能够很精确,因为,它其实是将组织进行原子化处理,数据结构的精细度很高,也就是数据结构与算法本身都十分精确。
与海氏评估法这类「精确的近似」相比,也可以拿不同代际的GPT作比,模型的精确度取决于参数的大小,GPT-1、GPT-2、GPT-3的参数分别为:1.17亿、15亿、1750亿。
可以这样做一种不精确地类比,海氏评估法这类传统管理范式的方法是GPT-1级别的参数,而Valor则至少是GPT-3乃到GPT-4的级别参数所的能力。
这里的「近似」取决于使用者能得到多么立体、全面的数据,即能否将原先本就存在,但因为组织问题分散在不同的部门/大脑里的已知数据提取出来,只要能够,Valor就能引爆它。
在数据的立体、全面性方面,对任何人都是一种挑战,哪怕是CEO本人,也是有难度的,因为你总是不免自问这个问题——我怎么知道我列出的清单是完备的?
答案是:不知道。没人能知道。
这是认知的局限,也是人类理性的局限。
然而,人类理性的尽头,就是计算理性的开始。
人类总是不可能达到上帝式的全知,但总是可以向“知道得更多”那个方向努力。所以我们欢迎用户修改她的数据、尤其是添加她的数据,最好是把她的已知部分全都纳入软件的计算范围,这样她就不会遗漏。全都纳入就是全知了吗?当然不是,无论多“全”,也只是主观的全,客观上也都是偏的。偏是恒常的,全是不可能的。
正如时下流行的《十三邀》的Slogan:带着偏见看世界。
仔细想想,这其实才是真正的实事求是:人只能承认自己的局限,才能吸收更多真知,不断逼近真相。
同时,人类能不断进步的另一重原因是:想像。正如赫拉利在《人类简史》中所述:人类正是因为相信“虚构故事”才构建了文明。
所以,Valor鼓励实事求是的同时,也鼓励充分发挥自己的想像力,在Valor中仿真你的任何想法,洞见以前无法洞见的价值。
Valor则正是在帮助管理者提升算力,而追求「精确的近似」的AI。
模糊与概率思维
在Valor中,这里的「精确」与「近似」需要一些特别说明。
Valor通过:1)将组织原子化。不论是使命、愿景、价值观等等,还是一个具体的想法、一场活动、一个事件等,它们都作为一种事实支持或被支持着。2)复杂网络与图算法为原子化的组织建模,解决了以往模型难以处理的组织「动态性、复杂性与模糊性」数据的难题。3)在此基础之上,对于输入的数据,再通过精巧的「数据结构与算法」实现组织的量化。
第1)、2)点表达的是,Valor在模型的通用性上是可以足够「精确」的,还是那句话:复杂网络可以呈现组织本来的样子。
而第3)步的结论只能是一个不断逼近真相的概率,从而,天然就是一种「近似」,只是这种近似很高阶。
是因为上述所说的人类本身的认知局限,人类没有“全知眼”,无论是在关系网、信息权还是财务流,都有可能出现数据收集上的不立体、不全面,这会造成某种「模糊」。
所以,对Valor的最佳实践,最重要的一句话是:结论的「信度」取决于算法的精度,结论的「效度」取决于您对输入数据的信心。
我们在「算法的精度」的方面做了很深入的探索,您的最佳实践,很大程度取决于您输入的数据的有效性,而因为大语言模型的出现,AI在帮助您输入更有效的数据方面,也会发挥很大的价值。
这样,您就可以获得一种远高于传统管理范式几个量级的高级「精确的近似」。
最后
人类永远无法抵达「精确的正确」,但是人类总在不断地想尽一切办法抵达「更」精确与正确,为了这个「更」,巴菲特与马云的办法是,大道至简,使用「近似的正确」,而张一鸣一直在追求的是「精确的近似」而避免「精确的错误」,这一点上,我们与张一鸣是同类。
这里,可以回应文初的问题:难道真没有第三种走出森林的方法吗?
有的。在管理活动中,要有基本规则,其实就是马云在湖畔大学所讲的上三板斧”使命、愿景、价值观”这类「近似的正确」;但是在管理过程中,又需要将能精确处理的一定要精确处理,让其下三板斧“组织、人才、KPI”更有效,这时,更需人的是「精确的近似」。
恰恰,管理与决策不同的是:管理面对的是已知;决策面对的是未知。而管理活动本身的由于其精确程度还远远不到拼“近似的正确”的阶段。
管理适合也需要「精确的近似」,而且需要的是非原始的而是高阶的「精确的近似」。