第22章 做机器做不了的事,才配做人(2/2)
作者:浙东匹夫

    他反而并不愤怒了,取而代之的是深深的忧虑。

    深度学习型人工智能,是靠大数据的喂养来建模和预测社会演变、人类选择的。

    但是,这种人工智能有个最大的弊端,那就是它并不懂逻辑,所以没有对黑天鹅冲击的预见能力。它只是基于人类已有经验的总和,或者说人类历史上所有发生过的事情,来推测未来。

    打个比方,早在2010年,谷歌公司的社会预测型人工智能,就发出过一个推演:

    说不吃早餐的人,性-淫乱的概率会远远高于吃早餐的人的4.3倍。

    这个数据准不准?

    准,飞常准。

    在全世界当时可被精确统计的样本里,不吃早餐的人拥有多个混乱性伴侣的比例,确实是吃早餐的人的4.3倍。

    可问题是,人工智能知道这背后的逻辑原理么?看得懂因果关系么?

    不,它看不懂。

    大数据只看事实结论,它不关心逻辑。

    如果非要它给个逻辑,或许它会敷衍塞责地写一句:“因为不吃早餐,所以喜欢找更多异性啪啪啪”或者“因为我找了更多异性啪啪啪,所以我不想吃早餐”。

    人类一眼就能看出这纯属扯淡。

    而同样的数据,如果交给人类的社会学家分析,人类会怎么干?

    人类会深入调研、询问当事人的感想,最后得出这样的结论:“不吃早餐和性淫乱毫无关系。但只是因为不吃早餐的人,是生活无规律的一种重要表现形式。

    而生活无规律的人,显然在挑选自己性伴侣方面也会更加随意而无责任心。所以,是生活无规律这种三观,同时导致了这个人有较大概率分别选择不吃早餐和随便挑选性伴侣。但不吃早餐和性淫乱本身之间毫无因果关系——它们都是生活无规律这个‘因’导致的‘果’。”

    拉尔森部长的这番检讨,算是打在了问题的根子上了。

    一个太信赖人工智能的社会系统,面临了因果不分、只看数据的窘境。

    这时候,一个全新的、没有历史记录可供借鉴的事物发生了,又该如何去预估其扰动呢?

    “我们太信赖这些年来科技对稳定的加持了。以至于一个新扰动变量就把我们的繁荣彻底打回了原形。我们的敌人,估计也是智商高绝的存在,竟然对我们的软肋了解如此之深。”

    蒙扎克总统悲哀地叹了口气,发现自己竟然短时间内没有办法解决。

    敌人似乎完全知道该怎么跟一个人工智能帝国作战,如何专挑人类能胜任、而人工智能又相对薄弱的最后死角,狠狠地打击。

    :。: