强ai是否会毁灭人类,是,或者不是,结论其实一点也不重要。
从什么论据出发,进而,经由一番怎样的论证得出结论,对阿达民而言,才更重要。
在这一点上,坦率的讲,方然在和斯蒂芬霍肯对话前,就大概猜得到,这位旧时代蛮声在外的身残志坚者,会给出什么样的告诫。
但,事关人与人工智能的本质,在这方面,说一句大言不惭的话,即便眼前这位教授的专业学识与思维水准,远在自己之上,方然也并不认为,斯蒂芬霍肯会比自己更了解何为“强人工智能”,更能洞悉其本质。
想到这里,看一下视野中叠加的时钟,方然向霍肯教授打过招呼,离开机器去吃午餐。
吃饭,普通人的寻常日程。
对行动不便的斯蒂芬霍肯,则需要一定的时间与耐心。
参观暂时中止,“替身”在废弃矿井深处待机,两位参观者则利用这稍显漫长的时段,继续隔空喊话般的辩论。
“教授,梳理你的言论,我可否这样概括一下要义
您对强人工智能的恐惧,或者说警惕,完全基于这样的事实,人类研发的强ai,看起来,能力很快就会超越人,甚至于超越一个大量人口组成的群体,具备人类迄今为止从未有过的强大思维与处理能力。
然后呢,因为这超越了人的能力,人类,即便严阵以待、费尽心机,也没办法切实的提防其独走,甚至反戈一击。
最终的结论,很大概率,人类会被自己创造的强ai所灭绝,是这样吗。”
“正是如此,”
一边让仿真人喂饭,一边交谈,霍肯教授的话很简洁,
“您呢,是否承认这一点”
“这显然不是承认、或者不承认的问题,我刚才说的,并非事实,只是您站在自己的立场上,构思出来的观点。
从强人工智能的力量超越人类,推导出人类必将被其灭绝,这一论证,恕我并不能认同,当然,如果您是指人类无法防范强ai的反叛、或者无意识的毁灭行为,这我倒是完全同意
强人工智能具有的智慧,超越人类,这是一切讨论的大前提,否则,正如教授您所言,无法超越人类的强人工智能,没有研发的价值。”
“既然承认强ai的力量,超越人类,却又不认为人类无法防范来自强ai的威胁;
这不是很矛盾么,阁下”
“一点也不矛盾。
教授,我的确记得,关于强人工智能的讨论,早在几十年前,一直延续到旧时代的灭亡,从未中断。
在诸多专家、学者的表态中,有一个观点,我至今仍印象深刻
面对能力在自己之上的强人工智能,人类,仍然有一个至关重要的优势是人选择创造强人工智能,而不是相反,这意味着我们理应善加利用这先手之利,在创造出这一划时代的事物前,做好万全的准备。”