吳晨/文 ChatGPT如火如荼,讓人工智能再次成為全球矚目的顯學。在數(shù)據(jù)保護和隱私上最為保守的歐盟直接潑上一盆冷水,計劃更新即將出臺的全面人工智能法規(guī)——《人工智能法案》,對生成式AI生成圖像和文本的智能模型制定規(guī)則。加強監(jiān)管的出發(fā)點無疑是好的,但該如何監(jiān)管AI是一個動態(tài)的過程,問題將伴隨進步而生,絕非一則法案可以限定。
許多人把ChatGPT的橫空出世視為又一個iPhone時刻,會對商業(yè)社會帶來一系列本質(zhì)的變化。另一些人則認為生成式AI(ChatGPT背后的技術(shù))是新的GPT,這里GPT的意思是通用技術(shù)(general purpose technology)。此前蒸汽、電力、計算機都是劃時代的GPT,也帶來巨大的改變,引發(fā)生產(chǎn)力革命,推動指數(shù)級增長,帶動廣泛投資。如果ChatGPT是下一個iPhone,那么監(jiān)管也需要對未來它給商業(yè)和社會的本質(zhì)改變有所預判,而不是簡單地對GPT的模型加以限制。
ChatGPT至少有三方面的風險值得我們深入思考。
首先,它強大的內(nèi)容生成功能是否會導致假新聞泛濫?目前ChatGPT無法判斷什么是真實,許多測試都顯示它能很自信地給出答案,卻不會確保答案的正確性。實際上,假新聞在全球已經(jīng)是網(wǎng)絡(luò)惡疾,網(wǎng)絡(luò)上也沒有真實的標準,而且一旦從事實領(lǐng)域進入到認知領(lǐng)域,真實更需要定義,不同認知的人看待事物會明顯不同。GPT的推廣必然面臨著事實審核的問題,誰來做?需要引入人的判斷么?即使加入了人的判斷,也可能出現(xiàn)兩件情況:第一、人的判斷不一定準確;第二、機器很容易形成繞過人的(主流)判斷的能力。另一方面,GPT的廣泛應用也會讓炮制假新聞變得更加容易,為假新聞的泛濫推波助瀾。
其次,是否有墮入經(jīng)驗主義的風險。ChatGPT所依賴的自然語言模型把相關(guān)性分析推向極致,卻無法真正生成因果性的邏輯思考,其結(jié)果仍然是知其然,而不知其所以然。目前來看,GPT所生成的文本,本身就是訓練語料的平均數(shù),在市場推廣、客服、銷售等應用場景中幾乎可以替代人力,但真正出彩的創(chuàng)造力仍然缺乏。換句話說,機器生成的語言仍然是對人類過往經(jīng)驗的復刻,而不是真正的創(chuàng)新。GPT的廣泛應用會生成平庸的海量內(nèi)容,如果人簡單地依賴機器,一個可能的危險就是人類的思考和交流變得更加同質(zhì)化,原創(chuàng)性的東西越來越少,人類在海量平庸內(nèi)容面前甚至可能出現(xiàn)思維鈍化,思想的自由生長遭遇挑戰(zhàn)。相比較通用人類智能(AGI)取代人類的風險,GPT帶來的同質(zhì)化風險對人類而言更高。
第三,從第二點引申出來,也可能產(chǎn)生AI-native(AI原住民)的異化。00后我們稱之為數(shù)字原住民,因為自從他們懂事就生活在智能設(shè)備的環(huán)境之中。以此類推,20后可能是AI原住民。問題是,如果擬人式解答問題的小助理隨處可在,他們從小就習慣AI給予的幫助,是否會失去了培養(yǎng)思考思辨能力的機會?在歐美,GPT已經(jīng)給教育體系帶來難題,以閱讀、分析、表達為培養(yǎng)學生思辨能力的這套教育體系,很依賴學生通過寫論文來訓練他們的理解、總結(jié)和思辨能力。閱讀書的一篇章節(jié)、寫一篇讀書筆記、為申請一所大學寫一篇論述自己志愿的文章,是學生必備的技能。當ChatGPT可以讓寫作變得那么容易,把知識的總結(jié)和組織變得唾手可得的時候,抓作弊,禁止學生使用GPT就成了不得之舉。但顯然,貓和老鼠的游戲沒有意義。我們需要思考的是人與機器的差別到底在哪兒,教育需要如何改革以培養(yǎng)原創(chuàng)力。此外,AI原住民如果從小就習慣于與人工智能作伴,是否會出現(xiàn)AI沉迷的問題?
伴隨著技術(shù)的進步,問題會層出不窮。如果生成式AI會給人類帶來變革式的發(fā)展,那么未來對它所帶來問題的討論也將持續(xù)不斷,這樣的討論最終都將圍繞著“人與機器的互動中,何以為人”這一大命題展開。
(作者為《經(jīng)濟學人·商論》執(zhí)行總編輯)
京公網(wǎng)安備 11010802028547號