<small id="gggg8"></small>
  • <nav id="gggg8"></nav>
  • <tr id="gggg8"></tr>
  • <sup id="gggg8"></sup>
  • 人妻少妇精品专区性色,一本岛国av中文字幕无码,中文字幕精品亚洲人成在线 ,国产在线视频一区二区二区

    防范生成式AI四大風險

    埃森哲2023-07-22 11:13

    早前,非營利組織AI安全中心(Center for AI Safety)發(fā)布了一份簡短聲明,提醒公眾降低AI風險應成為全球優(yōu)先事項。為這份聲明背書的,包括了OpenAI首席執(zhí)行官山姆·奧爾特曼(Sam Altman)、DeepMind首席執(zhí)行官戴密斯·哈薩比斯(Demis Hassabis),以及微軟和谷歌高管在內(nèi)的350多位AI領(lǐng)域?qū)<摇T谏现芘e行的北京智源大會上,奧爾特曼也倡議全球就AI安全問題進行協(xié)作。

    ChatGPT的誕生激發(fā)了前所未有的創(chuàng)造浪潮,也讓公眾直觀地感受到生成式AI的力量。但缺少規(guī)范的技術(shù)如同一個尚未辨知善惡的新生兒,在帶給人類極大幫助的同時,也潛藏著新的風險。

    比如,新加坡《海峽時報》曾報道某科技企業(yè)工程師在借助ChatGPT處理工作時,無意中將產(chǎn)品核心數(shù)據(jù)輸入其中,導致商業(yè)機密外泄。越來越多ChatGPT用戶也發(fā)現(xiàn),在與AI對話時會收獲一些細節(jié)豐滿的故事,甚至言之鑿鑿的文獻介紹,但實際上這些并非真實信息,而是生成式AI的“模型幻想”(model hallucination)。


    生成式AI風險何在?


    對企業(yè)而言,生成式AI將改變工作方式、重塑商業(yè)模式。越來越多的企業(yè)已開始積極探索相關(guān)應用,以期提升創(chuàng)新效率、實現(xiàn)高質(zhì)增長。但生成式AI的風險同樣需要引起重視。

    首當其沖的就是合規(guī)風險,它貫穿于模型設計、搭建、使用各個階段,并會產(chǎn)生長遠的效應。比如,生成式AI基于學習需要而對用戶數(shù)據(jù)的留存、分析是否侵犯了個人和商業(yè)隱私,以及相關(guān)數(shù)據(jù)保護法案;它在借鑒創(chuàng)意作品(如畫作)的過程中,是否侵犯了作者版權(quán)和著作權(quán);由此產(chǎn)出的作品又是否可用于商業(yè)用途;甚至使用生成式AI本身,是否違反了部分國家和地區(qū)的法律法規(guī)。

    同樣可能在生成式AI的生命周期中出現(xiàn)的還有數(shù)據(jù)風險。生成式AI的運作核心是機器學習,其價值與數(shù)據(jù)的質(zhì)量和真實性密切相關(guān)。如果一臺基礎(chǔ)模型長期浸染在存有偏差的數(shù)據(jù)當中,它就會被這些數(shù)據(jù)“誘導”,從而輸出錯誤的信息或執(zhí)行歧視性操作。另一方面,某些群體特質(zhì)也會使生成式AI為其打上固化標簽,“一刀切”地去執(zhí)行某些程序,而失去了應有的公平性。

    此外,用戶風險也是需要重點關(guān)注的一環(huán)。事在人為。生成式AI的價值高低,很大程度上取決于使用它的人。我們需要通過一系列的法律法規(guī)、流程規(guī)范來防止人類有意、無意地使用生成式AI造成負面影響。

    價值風險也是企業(yè)和使用者應該考慮的內(nèi)容,即使用生成式AI是否可能有違社會、企業(yè)和個人的價值文化。比如,《MIT技術(shù)評論》曾指出訓練一臺普通AI模型消耗的能源,相當于五輛汽車全生命周期排放的碳總量。為此,在部署AI戰(zhàn)略的時候,我們必須思考相關(guān)碳排放是否會減緩乃至抵消企業(yè)的零碳進程,繼而有所取舍。

    埃森哲認為,打造負責任的生成式AI,不是一項“見招拆招”、“亡羊補牢”的局部任務,而是在生成式AI基礎(chǔ)模型的設計之初就應未雨綢繆,并在其全生命周期中持續(xù)領(lǐng)航匡正的系統(tǒng)性工程。


    負責任的AI,促進業(yè)務增長


    令人慶幸的是,大多數(shù)的政府部門和企業(yè)已經(jīng)意識到讓生成式AI更“有責任感”的重要性并開始采取積極行動。埃森哲最新全球調(diào)研顯示,97%的受訪高管認為自身企業(yè)將受到AI相關(guān)監(jiān)管法案的影響,77%將對于AI的監(jiān)管列為優(yōu)先事項。此外,有80%的受訪者表示,他們將投入10%或更多的AI總預算,以滿足未來的監(jiān)管要求;69%的受訪高管表示所在企業(yè)已經(jīng)開始嘗試負責任的AI實踐,但并未將其作為運營基礎(chǔ)。

    值得注意的是,不少受訪者認為,合規(guī)的AI將為其提供額外的競爭優(yōu)勢——43%的高管認為這將提高他們將AI產(chǎn)業(yè)化和規(guī)模化的能力,36%認為它將為競爭優(yōu)勢和差異化創(chuàng)造機會,41%認為它可以幫助吸引和留住人才。

    與之相應,在去年發(fā)布的埃森哲《AI成熟之道:從實踐到實效》報告中,我們還發(fā)現(xiàn),有13%的受訪企業(yè)成功使用AI技術(shù)實現(xiàn)了超過50%的收入增長,同時在客戶體驗(CX)和環(huán)境、社會與治理(ESG)方面表現(xiàn)出色。相較于普通企業(yè),這些“AI領(lǐng)軍者”更加注重從設計企業(yè)各個環(huán)節(jié)的時候就把負責任的AI列為優(yōu)先事項。


    新加坡是金融科技的沃土,不少機構(gòu)都已開始將AI技術(shù)用于信用卡審批、保險理賠等金融服務領(lǐng)域,在大幅提升工作效率的同時顯著降低運營成本。但作為監(jiān)管方,新加坡金融管理局看到了其中隱含的風險——如果放任AI自我學習,可能造成潛在的群體歧視。

    為此,他們組建了一個由25家機構(gòu)組成的行業(yè)聯(lián)盟,并在2018年發(fā)布了以公平、倫理、問責、透明為核心的“FEAT原則”,為金融機構(gòu)采用負責任AI提供指導。作為開發(fā)小組成員,埃森哲為其打造了用于評估模型公平性的工具包,以保證FEAT原則的執(zhí)行。

    目前,埃森哲與新加坡金融管理局仍保持著密切協(xié)作,在整個行業(yè)深化推進負責任AI的落地與優(yōu)化,為金融機構(gòu)提供建議,并致力于培養(yǎng)一批擁有相關(guān)知識和經(jīng)驗的專業(yè)人員,鼓勵更多科技企業(yè)創(chuàng)建符合FEAT原則的AI解決方案。


    設計負責任的生成式AI


    雖然多數(shù)企業(yè)已經(jīng)認識到培育負責任AI的價值并正致力于此,但只有6%的企業(yè)建立了負責任的AI基礎(chǔ)并將該原則付諸實踐。過于傳統(tǒng)的組織架構(gòu)、風險管理框架、生態(tài)伙伴、AI人才和考核標準,都是限制企業(yè)成功的主要原因。

    埃森哲建議,企業(yè)可以從原則與治理,風險、政策與管控,技術(shù)與支持,文化與培訓四個層面入手,通過設計讓生成式AI變得更負責任。


    原則與治理:在最高管理層的支持下,定義并闡明負責任AI的使命和原則,同時在整個組織中建立清晰的治理結(jié)構(gòu),以建立對AI技術(shù)的信心和信任。

    風險、政策與控制:加強對既定原則和現(xiàn)行法律法規(guī)的遵守,同時監(jiān)測未來的法律法規(guī),制定降低風險的政策,并通過定期報告和監(jiān)控的風險管理框架實施這些政策。

    技術(shù)與支持:開發(fā)工具和技術(shù)來支持公平性、可解釋性、穩(wěn)健性、問責制和隱私等原則,并將其構(gòu)建到AI系統(tǒng)和平臺中。

    文化與培訓:推動領(lǐng)導層將負責任AI提升為一項關(guān)鍵的業(yè)務要務,并為所有員工提供培訓,讓他們清楚地了解負責任AI原則以及如何將這些原則轉(zhuǎn)化為行動。


    在生成式AI的發(fā)展道路上,價值與風險始終并存,關(guān)鍵在于設計、搭建、使用它的企業(yè)和個人如何作為。打造負責任的生成式AI,讓創(chuàng)新科技的成果合規(guī)、安全、平等地惠及每一家企業(yè)、每一個人。

    版權(quán)與免責:以上作品(包括文、圖、音視頻)版權(quán)歸發(fā)布者【埃森哲】所有。本App為發(fā)布者提供信息發(fā)布平臺服務,不代表經(jīng)觀的觀點和構(gòu)成投資等建議
    人妻少妇精品专区性色
    <small id="gggg8"></small>
  • <nav id="gggg8"></nav>
  • <tr id="gggg8"></tr>
  • <sup id="gggg8"></sup>