今日,霍金先生回到了屬于他的浩渺宇宙。
據(jù)英國(guó)多家媒體報(bào)道,著名物理學(xué)家史蒂芬·霍金(Stephen William Hawking)去世,享年76歲。
消息一出,人們紛紛自發(fā)追憶。相對(duì)于物理學(xué)家,似乎霍金更像是我們上學(xué)時(shí)作文里的???,擁有著身殘志堅(jiān)、追求真理、與時(shí)俱進(jìn)的勵(lì)志精神。對(duì)于我們這些星空下的普通人來說,我們更樂于去聽這位科學(xué)泰斗時(shí)不時(shí)放出的毀滅預(yù)言。
霍金/圖 來源網(wǎng)絡(luò)
2017年霍金關(guān)于“小心人工智能”的這一條警告你肯定聽過。而大家聽到這個(gè)說法的第一反應(yīng)就是,難道《機(jī)器人啟示錄》要成真了?無獨(dú)有偶,同時(shí)期還有一件令人震驚的視頻流出,在聯(lián)合國(guó)特定常規(guī)武器公約會(huì)議上,伯克利大學(xué)教授、資深A(yù)I研究者Stuart Russell發(fā)布了一則蜂群無人機(jī)沖入教室屠殺學(xué)生的視頻,場(chǎng)面之血腥,引起了一陣對(duì)AI的熱烈討論。觀眾反應(yīng)不一,有的認(rèn)為AI的發(fā)展遠(yuǎn)達(dá)不到有獨(dú)立思想的程度,更多的人則對(duì)AI空前高漲的發(fā)展勢(shì)頭表示擔(dān)憂,這些人中就包括了比爾蓋茨、馬斯克以及逝去的史蒂夫喬布斯。
蜂群無人機(jī)現(xiàn)在聽起來似乎沒有傳說中的那么高精尖,但是如果加上了人臉識(shí)別系統(tǒng)呢?有分別的進(jìn)行攻擊令人毛骨悚然,然而這只是手機(jī)都可以自帶的常規(guī)操作。這個(gè)小小的無人機(jī)背后是多國(guó)都在準(zhǔn)備的高級(jí)戰(zhàn)爭(zhēng)機(jī)器,包括由此催生的蜂群無人機(jī)戰(zhàn)術(shù)。此前美國(guó)防部高級(jí)研究項(xiàng)目局實(shí)施的“小精靈”項(xiàng)目,其設(shè)想就是從大型戰(zhàn)機(jī)中發(fā)射無人機(jī)群來打擊對(duì)手。美國(guó)防部長(zhǎng)辦公室發(fā)布的《無人機(jī)系統(tǒng)路線圖(2005-2030)》,則認(rèn)為在2025年左右,“無人機(jī)將具備集群戰(zhàn)場(chǎng)態(tài)勢(shì)感知和認(rèn)知能力,能完全自主作戰(zhàn)”。2016年10月25日,美軍還演示了一次空射微型無人機(jī)蜂群攻擊的演示,創(chuàng)下運(yùn)用無人機(jī)最大規(guī)模紀(jì)錄。近日,我國(guó)解放軍國(guó)防科技大學(xué)進(jìn)行了“無人機(jī)集群自主作戰(zhàn)”實(shí)驗(yàn),未來,由成百上千架無人機(jī)組成的編隊(duì),可以讓世界上任何防控體系都束手無策,如果用來攻擊航母,還可以鉆入機(jī)庫(kù)破壞內(nèi)部設(shè)施,甚至能點(diǎn)對(duì)點(diǎn)的擊殺指揮人員。
美國(guó)“小精靈”無人機(jī)/圖 來源網(wǎng)絡(luò)
在實(shí)驗(yàn)進(jìn)行的如火如荼之時(shí),實(shí)戰(zhàn)已經(jīng)在俄羅斯預(yù)演了一回。俄羅斯國(guó)防部信息和大眾傳媒司1月8日發(fā)布消息稱,今年1月6日凌晨,駐敘利亞境內(nèi)的俄軍防空系統(tǒng)發(fā)現(xiàn)13個(gè)小型的空中目標(biāo),后經(jīng)證實(shí)為小型無人機(jī)集群。它們意圖接近俄羅斯駐敘赫梅明空軍基地和塔爾圖斯海軍補(bǔ)給站,并發(fā)起襲擊。
美國(guó)海軍經(jīng)過上百次無人機(jī)峰群戰(zhàn)術(shù)攻擊模擬實(shí)驗(yàn)發(fā)現(xiàn),就算守軍是神盾艦,在遭受8架無人機(jī)共同打擊后,平均也會(huì)有2.8架無人機(jī)成功。在我們看不到的科技背后,AI的發(fā)展遠(yuǎn)遠(yuǎn)超乎了我們的想象。
去年,霍金曾在北京舉辦的全球移動(dòng)互聯(lián)網(wǎng)大會(huì)(GMIC)上演講時(shí)提及到了紅極一時(shí)的無人駕駛與無人機(jī):“現(xiàn)在,關(guān)于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和長(zhǎng)期來討論。一些短期的擔(dān)憂在無人駕駛方面,從民用無人機(jī)到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風(fēng)險(xiǎn)的大事故和大概率的小事故之間進(jìn)行選擇。另一個(gè)擔(dān)憂在致命性智能自主武器。他們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當(dāng)和故障的過失應(yīng)該如何問責(zé)。”同時(shí)在AI發(fā)展大方向上表示:“我認(rèn)為強(qiáng)大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。我不得不說,是好是壞我們?nèi)圆淮_定。但我們應(yīng)該竭盡所能,確保其未來發(fā)展對(duì)我們和我們的環(huán)境有利。我們別無選擇......人工智能的研究與開發(fā)正在迅速推進(jìn)。也許我們所有人都應(yīng)該暫停片刻,把我們的研究重復(fù)從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會(huì)效益上面。”人類是否危險(xiǎn)主要取決于誰來控制它,更長(zhǎng)遠(yuǎn)的說,取決于 AI 到底能否被控制??萍际且话央p刃劍,AI 也是。
今日,霍金先生回到了屬于他的浩渺宇宙,我們?cè)谘鐾@片他傾盡傳奇一生來探究的蒼穹時(shí),希望看到的是他寄予人類最大關(guān)懷的純粹的星空。