佘宗明/文 ChatGPT引發(fā)的“余震”未息。就在近日,包括埃隆·馬斯克、圖靈獎得主約書亞·本吉奧、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、《人類簡史》作者尤瓦爾·赫拉利在內的上千名科技人士發(fā)聯(lián)名公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng),為期至少6個月,以確保人類能夠有效管理其風險。
乍聽起來,很容易讓人聯(lián)想到馬車夫要求禁止汽車上路之類的場景。但簡單將這類呼聲概括為反技術進步的新勒德主義,有失偏頗。這次發(fā)聲的上千人,并非都是所謂的頑固派,其中許多人是赫赫有名的科技領袖、AI大牛。約書亞·本吉奧就被稱為“AI教父”,馬斯克也是裹著極客底色的動能派。
從公開信內容看,他們并不是反對發(fā)展AI技術,更多的是擔心。他們的擔心分為兩類:第一,AI跑得太快,不會等一等人類。這通向的往往是霍金式憂慮——AI會導致人類族群滅絕;第二,AI被惡意使用。無論哪種,都可能帶來災難性影響,所以他們希望AI實驗室“從奔向不可預測的大型黑盒模型的危險競賽中收回腳步”。
平心而論,這番呼吁未必能得到科技巨頭們的響應。要知道,生成式AI被認為是下個時代的信息入口,而AI時代的創(chuàng)新又呈現高度的非線性、裂變式特征,今天落后一步,明天就可能落后十步。
也因如此,科技巨頭們已掀起AI軍備競賽,在生成式AI的“iPhone時刻”已到來的背景下,誰都不甘心失去先機。更何況,再考慮到事關國家數字主權、未來科技競爭等,想讓所有AI實驗室一齊摁下研發(fā)暫停鍵,也并不現實。自數字化技術出現以來,沒有哪項技術是可以說叫停就叫停的。
但我們不能說這些科技領袖的呼吁是杞人憂天。在超級人工智能雛形已現,以往科幻片中的場景密集涌現的當下,昔日很多遠在天邊的“AI失控風險”可以說是已近在眼前,不容回避。
具體而言,AI失控風險,可能體現在AI“成精”上,也可能體現在AI被不當濫用上。
前者是馬斯克的顧慮所在,他此前之所以將人工智能比作核技術,稱“它有巨大的前景也有巨大的能力,但隨之而來的危險也是巨大的”,就是源于大膽猜想:人類就是引出超級數字智能物種(AI)的引導程序,最終AI代表的硅基文明可以對人類代表的碳基文明實施降維打擊。
周鴻祎也曾表達擔心:目前ChatGPT還只有大腦,接下來它可能進化出“眼睛”、“耳朵”、“手”跟“腳”……將來它會不會在看完類似《終結者》的電影后,產生與人類為敵的想法。在他看來,人類從智人發(fā)展而來,智人從類人猿發(fā)展而來,類人猿能進化為智人,就是因為腦中的神經元網絡發(fā)生突變,現在ChatGPT大語言模型參數達到了1750億,同樣引發(fā)了突變。斯坦福大學教授曝光的GPT-4“越獄計劃”,也似乎形成了印證。
后者是更多科技人士的憂心之處。厄休拉·M·富蘭克林曾在《技術的真相》中寫道:技術的發(fā)展和運用都是在一個特定的社會、經濟和政治語境中發(fā)生的,它從一個社會結構中產生,然后被嫁接在這個結構上。也就是說,技術也許沒有善惡之分,但社會結構決定了,它可能被用來做惡。
“AI一鍵脫衣”“換臉親吻”……這兩天媒體曝出的諸多亂象,就表露了這層風險。更讓人擔心的或許是AI被詐騙分子乃至恐怖分子利用。故而紐約大學教授加里·馬庫斯說,他現在并不擔心超級AI帶來的“AGI風險”(我們無法控制的超級智能機器的風險),在短期內他擔心的是平庸AI被廣泛部署帶來的“MAI風險”。
就連OpenAI的CEO薩姆·阿爾特曼、首席技術官米拉·穆拉蒂,也對此類風險直言不諱。阿爾特曼曾表示,AI潛在的危險性讓他徹夜難眠,擔心它被壞人所用。穆拉蒂也說,ChatGPT可能會編造事實,應受到監(jiān)管。
這未必就該導向對新技術“審慎過度,包容欠缺”的強監(jiān)管,但毫無疑問,馬斯克們提醒的風險應當被重視。某種程度上,這其實就是要用科技向善的“地圖”為AI發(fā)展導航,讓AI回歸以人為本,而不是讓AI技術伴生的釣魚、欺詐、監(jiān)控去劫奪人的權利或損害人的尊嚴。
說白了,人是目的,AI則不是,它應該成為人類為善的工具,而不是作惡的利器。
(作者系資深媒體人)
京公網安備 11010802028547號