最近一段時(shí)間,很多知名人士都對(duì)人工智能武器表示了抵制,但他們給出的原因卻比較偏頗,認(rèn)為機(jī)器人有朝一日將會(huì)控制人類。這種說(shuō)法其實(shí)并不合理,至少在短期內(nèi)不合理。但是,人工智能武器所蘊(yùn)含的危險(xiǎn),也確實(shí)不是那種常規(guī)的、由人類操控的武器可以比擬的。因此要求禁止人工智能武器的呼吁,也理應(yīng)獲得大家的聲援。
斯蒂芬·霍金、宇宙學(xué)家馬克斯·特格馬克以及伊隆·馬斯克和其他很多人都簽署了“未來(lái)生活”(FutureofLife)請(qǐng)?jiān)笗蠼怪圃焓褂萌斯ぶ悄芪淦鳌=衲?月,馬斯克捐款1000萬(wàn)美元給發(fā)起該請(qǐng)?jiān)傅臋C(jī)構(gòu)。4月份,聯(lián)合國(guó)召開(kāi)了“殺手機(jī)器人”會(huì)議,不過(guò)沒(méi)有產(chǎn)生任何具有持久性的政策決定。“未來(lái)生活”請(qǐng)?jiān)感胖赋觯斯ぶ悄芪淦鞯奈kU(xiǎn)非常具體,不出幾年就有可能導(dǎo)致災(zāi)難,需要馬上采取行動(dòng)來(lái)加以避免。可惜的是,它并沒(méi)有明確指出,有哪些人工智能武器已經(jīng)出現(xiàn)在了地平線上。物理學(xué)家、皇家天文學(xué)家馬丁·里斯爵士就警告說(shuō),災(zāi)難性的場(chǎng)景,比如“愚蠢的機(jī)器人不按指令行事,或一個(gè)網(wǎng)絡(luò)自己有了主見(jiàn)。”他在劍橋的同事、哲學(xué)家休·普萊斯也表達(dá)了類似的擔(dān)憂,覺(jué)得當(dāng)智能“不受生物學(xué)限制”時(shí),人類可能無(wú)法生存。在兩人的推動(dòng)下,劍橋大學(xué)組建了生存風(fēng)險(xiǎn)中心(Centreforthe Studyof Existential Risk),以圖避免人類的生存遭受如此巨大的威脅。
1925年簽訂的國(guó)際條約禁止在戰(zhàn)爭(zhēng)中使用化學(xué)武器和生物武器。而中空彈(Hollow Point Bullet)早在1899年就被禁用,因?yàn)檫@些武器會(huì)導(dǎo)致極大的、不必要的痛苦。它們特別容易導(dǎo)致平民傷亡。比如公眾可能會(huì)吸入毒氣,醫(yī)生在嘗試取出中空彈時(shí)可能會(huì)受傷。這些武器很容易給無(wú)辜者造成痛苦和死亡,所以它們?cè)獾搅私谩?
是否有某種類型的人工智能機(jī)器同樣也應(yīng)該被禁用呢?答案是肯定的。如果一種人工智能機(jī)器可以很便宜、很容易地改造成高效的無(wú)差別大殺器,那么我們就應(yīng)該制定禁止它的國(guó)際公約。這樣的機(jī)器與放射性金屬在本質(zhì)上沒(méi)有什么不同。它們都可以和平利用,造福人類。但是我們必須小心翼翼地對(duì)它們加以管控,因?yàn)樗鼈兒苋菀妆桓脑斐蓺缧晕淦鳌2煌氖牵瑢?duì)人工智能機(jī)器進(jìn)行改造,將其用于破壞性目的,遠(yuǎn)比把核電站的反應(yīng)堆改成核武容易得多。
我們應(yīng)該禁止人工智能武器,這不是因?yàn)樗鼈內(nèi)季哂胁坏赖碌膶傩裕且驗(yàn)槿藗兛梢岳迷诰W(wǎng)上找到的資料,把人工智能武器改裝成“猙獰的嗜血怪物”。只需一段簡(jiǎn)單的代碼,就可以把很多人工智能武器轉(zhuǎn)變成不亞于化學(xué)武器、生物武器和空心彈的殺人機(jī)器。很多人擔(dān)心會(huì)出現(xiàn)“終結(jié)者”那樣的世界末日?qǐng)鼍埃簷C(jī)器人具有了像人類一樣的能力,能夠完全依靠自己與世界交互,而且這些機(jī)器人試圖征服世界。