为什么人类喜欢预测未来?说到预测未来,如果我们把时间放回过去,在人类历史的特定时间总会有一些特定的人。他们向全世界宣布,世界的运行不是我们所想的,也不是我们想要的结果。我们熟悉牛顿、爱因斯坦、哥白尼、达尔文甚至弗洛伊德。现在,温伯格似乎期待着人工智能(AI)扮演这个角色。回到根本问题,为什么人类如此痴迷于预测?人类热衷于预测的原因很简单。提前计划
我们希望提前知道所有的可能性并做好准备。这导致了三个结果。一是准备过度;二是准备不足;第三,准备不当,即准备好的东西是无用的。人类经常犯这三个错误。如果这三种情况发生,社会将不得不承担巨大的代价。使用AI进行预测???? 为什么要发明人工智能?因为机器可以对人类做出更好的预测。如果机器预测足够准确,我们可以避免三种人为错误。机器可以让我们做好适当的准备
我们应该把预测的练习从人手转移到机器上。现在,这种情况正在发生。例如,纽约一所医学院的研究人员开发了一个机器学习系统。我们可以把这个系统理解为一个“吞噬数据的巨大怪物”
他们在系统中输入了700000个案例,这是一个非常大的数据量。有趣的是,研究人员没有给出指示,而是让系统无限期地找出它能做什么。因此,被称为“深度病人”的医疗诊断系统所做出的诊断和预测的准确性远远超过人类医生的准确性。唯一的问题是,在做出诊断后,系统无法解释如何诊断以及为什么做出诊断。在行业术语中,这是一个“黑匣子”(从用户的角度来看,指的是一个设备或产品,我们不知道它的内部结构和原理,只关心它的功能和如何使用这些功能),但它确实比人类医生更准确
“深度病人”只是深度学习。所有深度学习本质上都是一个“黑箱”。它的优点是你不需要理解它,也不需要将世界简化到人类可以理解的程度
随着机器学习在世界上的广泛应用和发展,混沌理论转向混沌实践,并将这一令人兴奋的想法应用到日常生活中
3。混沌练习???? 将混沌理论应用于日常生活可能会产生什么结果?根据温伯格的分析,越来越多的事情不再基于预测。这种转变并非始于人工智能,而是由于互联网的存在,各行各业都采取了完全避免预测未来的做法。让我们举几个例子
柔性生产(以构建“制造系统应对内外部环境变化的能力”为中心的生产模式和方法)
敏捷开发(以用户需求演化为中心的迭代和分步开发方法)
A/B测试(利用数据进行产品决策的方法)
最简单可行的产品(MVP,以最快最简洁的方式建立可用的产品原型)
这些东西不需要预测,只需找到方法来验证一个想法是否可行。而且,这些事情的可行性很高,最终结果能够满足要求
温伯格甚至简而言之:“过去20年的快速发明和创新并不是通过预测来完成的。相反,它们是为了避免预测未来。”因此,他得出的结论是,互联网并没有试图预测和准备未来,而是通过创造更深不可测的可能性来创造我们的繁荣。到目前为止,基本的认知模式已经被颠覆,人们有了新认知的可能性。我们如何将温伯格的理论应用到企业战略中?战略的目的是通过对未来的精心设计,进行长期的准备,确定企业的下一个方向
企业计划的核心是在众多的可能性中找到资源最匹配的可能性,并全力押注于这种可能性。因此,该战略的初衷是减少这种可能性
事实上,当认知模式转变时,应该将其应用到企业管理中。我们的最佳战略往往需要尽可能避免预测
以前,一些大型公司将该战略理解为3-5年的长期计划。现在,我只制定了半年的计划
这意味着什么?我们通常的战略思维是线性思维。战略规划被视为限制性操作。它首先识别可能性并选择企业想要实现的可能性
例如,在过去,在商界乃至国际政治中,情景规划是广泛使用的战略制定方法
是情景规划,一度被视为最高的战略规划理念,完美
我们想象一个组织或国家未来可能会有一些发展,比如崩溃或繁荣。我们通过几个可能的场景来规划未来的故事。为了避免崩溃情景的出现,或使繁荣情景成为可能,我们根据这些思想制定战略规划
事实上,这是非常典型的线性思维。无论线性思维是否将世界规划为几个方案,它都受到错误世界观的限制,世界的可能性远远超过了这些方案。例如,2019冠状病毒疾病在爆发之前不会出现在任何战略地图上
我记得我在世界经济论坛上见过许多与会者。他们不仅讨论了经济问题,而且一些历史学家就“为什么没有人预测苏联解体”展开了激烈的辩论
作为历史学家,为什么不预测?因为他们都信奉线性思维。线性思维可以增加其复杂性维度,但不管它有多复杂,世界都不会有理想的规则结构
因此,我们需要的是非线性思维
McGrath认为,没有所谓的可持续竞争优势,而我们唯一能做的就是“持续重建战略”
对这一战略的理解要求公司必须对环境的任何变化保持警惕,并有一个特定的组织结构和文化,这样公司才能做出反应,摆脱当前的轨道,及时走出,从而创造一条新的轨道。这是非线性思维
生活中的所有场景都告诉我们,我们必须关注大的变化趋势。然而,麦格拉斯的理论认为,任何微小的改变都会颠覆我们的生活。专注于大的变化并不能保证我们可以继续重构
2。底线值???? 当然,温伯格也意识到,如果我们把所有的日常生活都交给人工智能,如果人工智能犯了错误呢?如果算法本身有偏差呢?如果人工智能没有道德呢?因此,他提出了底线价值观
如果不加以控制,该体系可能会以最残酷的方式对待最弱势群体。例如,出售骑手进行系统挤压
AI系统需要底线值。然而,关于人类价值的讨论往往是混乱、不准确和有争议的。人类应该向机器投降吗?如果人类对价值观的讨论无法达成共识,我们应该停止将人类价值观输入机器吗?事实上,温伯格正在秘密敦促人类向机器投降?为什么我们要向机器投降?有两个前提:第一,机器将越来越多地接管人类事务。这似乎是一个不可阻挡的趋势