<small id="gggg8"></small>
  • <nav id="gggg8"></nav>
  • <tr id="gggg8"></tr>
  • <sup id="gggg8"></sup>
  • 人妻少妇精品专区性色,一本岛国av中文字幕无码,中文字幕精品亚洲人成在线 ,国产在线视频一区二区二区

    算法是邪惡的嗎

    李佩珊2022-04-05 18:47

     

    3月24日,歐洲對(duì)于科技巨頭的監(jiān)管靴子進(jìn)一步落地。歐洲議會(huì)、歐洲理事會(huì)和歐盟委員會(huì)就《數(shù)字市場(chǎng)法案》達(dá)成一致,試圖找到對(duì)那些提供核心算法平臺(tái)服務(wù)的大科技企業(yè)的新的監(jiān)管措施。除了打擊壟斷之外,法案的重點(diǎn)在于要求大科技公司對(duì)算法的工作方式保持透明。這承自2018年歐盟施行《通用數(shù)據(jù)保護(hù)條例》以來(lái),歐盟一直在推進(jìn)的“反歧視”、“透明”的“算法正義”的愿景。

    我們?yōu)楹涡枰?ldquo;算法正義”?這是否因?yàn)樗惴ㄌ烊痪哂行皭旱膶傩裕孔鳛楣爬系墓ぞ撸惴ū旧硎强陀^的,但其客觀中立在新的時(shí)代卻在“重復(fù)和鞏固世界上已經(jīng)存在的不公正”。同時(shí),科技巨頭們的崛起和壟斷地位帶來(lái)的社會(huì)種種領(lǐng)域的劇變,讓大眾開始畏懼起其作為核心的神秘的算法“黑箱”。

    不那么新,不那么惡:什么是算法

    雖然人類踏入信息時(shí)代已經(jīng)快有半個(gè)世紀(jì),但“算法”這個(gè)詞進(jìn)入大眾場(chǎng)域并被熱烈的討論,也不過(guò)是近幾年的事情:2016年,算法在幾秒鐘內(nèi)引發(fā)了英鎊的大跌;同一年,在社交網(wǎng)絡(luò)上根據(jù)算法創(chuàng)建的機(jī)器人,學(xué)習(xí)并發(fā)布了大量涉嫌種族、性別歧視甚至否認(rèn)大屠殺的帖子。在中文網(wǎng)絡(luò)世界中,“算法”這個(gè)詞尤其顯得嶄新并且邪惡,很多人是在一篇描述外賣騎手如何在系統(tǒng)調(diào)度疲于奔命的報(bào)道中,第一次了解這個(gè)詞。

    算法(Algorithms),實(shí)際上是指“解決問題或完成任務(wù)的逐步過(guò)程”。這樣說(shuō)來(lái),算法幾乎本就存在于萬(wàn)事萬(wàn)物之中。無(wú)論是要“烹小鮮”,還是“治大國(guó)”,都得逐步完成,而這方法路徑即是“算法”。人類社會(huì)依靠著“算法”,在千萬(wàn)年的時(shí)間長(zhǎng)河中組織運(yùn)作并進(jìn)化發(fā)展。

    這也意味著,人類的發(fā)展史也正是一部“算法”的進(jìn)化史。算法的進(jìn)化則體現(xiàn)在對(duì)信息的處理方式的變革之中。這也是為什么當(dāng)人類進(jìn)入信息技術(shù)時(shí)代之后,算法的地位和力量在以一種驚人的速度成長(zhǎng)。

    在《算法的力量:人類如何共同生存?》(李大白譯,北京日?qǐng)?bào)出版社·理想國(guó),2022年2月)一書中,英國(guó)學(xué)者杰米·薩斯坎德回溯了這樣的歷史關(guān)聯(lián)。

    公元前3500年,蘇美爾人使用那個(gè)時(shí)代最強(qiáng)大的信息處理系統(tǒng),即楔形文字來(lái)記錄稅收、法律等相關(guān)行政文件。這些文字的意義并不在作為記錄,而是當(dāng)文字被發(fā)明后,商業(yè)和官僚機(jī)構(gòu)的存在才成為可能。正如歷史學(xué)家們?nèi)绻_德·尼斯所論證的,最古老的那些文明和他們的政治體制,例如埃及的君主制和羅馬的城邦制,“本質(zhì)上都是文字的產(chǎn)物”。現(xiàn)代意義上的算法的真正出現(xiàn),也建立在人們對(duì)社會(huì)信息系統(tǒng)的不斷升級(jí)上。IBM起源于1880年美國(guó)人口普查中被發(fā)明的“打孔卡”和“制表機(jī)”系統(tǒng),并在一百年后發(fā)布了歷史上第一臺(tái)PC,將人類文明帶入個(gè)人電腦時(shí)代。

    然而,在信息極度膨脹的大數(shù)據(jù)時(shí)代,算法的力量同樣在極度膨脹,并且變得神秘莫測(cè)。應(yīng)用程序和搜索引擎產(chǎn)生了海量的用戶數(shù)據(jù),大科技公司以數(shù)據(jù)為資源、以算法為架構(gòu)成為了龐然巨物。“本質(zhì)上,當(dāng)我們談?wù)搹?qiáng)大的科技公司時(shí),我們談?wù)摰牡氖钦紊蠌?qiáng)大的經(jīng)濟(jì)實(shí)體。”薩斯坎德強(qiáng)調(diào)。很多大科技公司占據(jù)著壟斷性的經(jīng)濟(jì)地位,并“控制著影響我們核心自由之技術(shù)”:“審查手段和感知控制”已經(jīng)影響到人們的日常生活決策,小到購(gòu)物偏好、大到民主選舉(例如“劍橋數(shù)據(jù)門”)。此外,算法也在擺脫人類的控制,事實(shí)上,基于機(jī)器學(xué)習(xí)的算法已經(jīng)成為了“黑匣子”,人類觀察者已經(jīng)難以理解算法如何通過(guò)海量數(shù)據(jù)計(jì)算出的結(jié)果背后的邏輯,“機(jī)器奴役人類”似乎并不是遙遠(yuǎn)的科幻恐怖片。人們開始恐懼算法,并將之賦予邪惡的色彩。

    可是,作為工具的算法,根本無(wú)法如人類特質(zhì)那樣用邪惡和善良來(lái)歸類。人們將算法視為邪惡的,是因?yàn)樗惴ü钾?fù)了他們認(rèn)為計(jì)算機(jī)能夠做到人類無(wú)法達(dá)到的客觀中立的期望。但正如薩斯坎德所言,“中立的規(guī)則會(huì)重復(fù)和鞏固世界上已經(jīng)存在的不公正”。他舉出了一個(gè)例子:谷歌算法將“為什么女人……”的問題自動(dòng)補(bǔ)充為“為什么女人說(shuō)話那么多”,是因?yàn)橛泻芏嘤脩粼阉鬟^(guò)這個(gè)問題,這顯然折射出了人類自身的偏見。

    真實(shí)世界中少數(shù)群體在大數(shù)據(jù)中的同樣“少數(shù)”,也導(dǎo)向了從中形成的算法的不公正。科學(xué)家們已經(jīng)承認(rèn)了“數(shù)據(jù)偏見”(DataBias)的存在,這種不公正在一些關(guān)乎人命的領(lǐng)域,例如醫(yī)療保健領(lǐng)域,會(huì)導(dǎo)致毀滅性的后果。例如,一款投資甚多終于開發(fā)出來(lái)的趨于完美的皮膚癌檢測(cè)人工智能算法,卻被發(fā)現(xiàn)無(wú)法檢測(cè)出深色皮膚的人種的癌癥,僅僅是因?yàn)橛?xùn)練算法的數(shù)據(jù)來(lái)源的州大多數(shù)居民是白人。關(guān)于“數(shù)據(jù)偏見”對(duì)于少數(shù)群體的不公正造成的危害,在《隱形的女人:揭露為男性設(shè)計(jì)的世界中的數(shù)據(jù)偏見》一書中有更多的體現(xiàn)。

    “像對(duì)待所有人一樣對(duì)待弱勢(shì)群體,實(shí)際上會(huì)復(fù)制、鞏固甚至產(chǎn)生新的不公正。”薩斯坎德寫道。他認(rèn)為,對(duì)于算法的評(píng)判,不應(yīng)該在意其“過(guò)程中立”,而應(yīng)在意其產(chǎn)生的結(jié)果是否符合相關(guān)的正義原則。在這個(gè)意義上,編寫并維護(hù)算法的人,應(yīng)該為算法結(jié)果的“不作惡”付出更多的努力。

    那么大,那么有力量:當(dāng)算法屬于“巨頭”

    很多現(xiàn)在已經(jīng)成為龐然大物的科技公司,往往懷揣著新技術(shù)能讓世界變得更好的極客初心。“不作惡”(Don'tbeevil),是谷歌公司最初也最出名的行為準(zhǔn)則,這迅速塑造了谷歌的內(nèi)部精神,并催生了外部世界對(duì)科技公司的不明覺厲卻認(rèn)為其值得尊敬的認(rèn)同感,還影響了后來(lái)的眾多科技公司。

    對(duì)于2000年初的一家以搜索引擎為核心業(yè)務(wù)的小型公司而言,“不作惡”是簡(jiǎn)單的:搜索服務(wù)是開放和免費(fèi)的,不應(yīng)當(dāng)向人們收費(fèi);不要讓搜索結(jié)果的首位被廣告商壟斷;橫幅廣告和彈窗廣告也不應(yīng)該占滿人們的屏幕。

    但對(duì)于二十年后,擁有著數(shù)百種產(chǎn)品的超大型企業(yè)谷歌而言,“不作惡”顯然是困難和復(fù)雜的要求。

    首先,作為公司技術(shù)核心的算法“不作惡”就是困難的。正如前文所提到的,谷歌的搜索算法引擎在一定程度上重復(fù)和鞏固了不正義。巨大的算法力量也在向真實(shí)社會(huì)的政治、經(jīng)濟(jì)乃至社會(huì)保障領(lǐng)域滲透。“作惡”能帶來(lái)的報(bào)償?shù)恼T惑同樣是巨大的。在政治方面,美國(guó)行為研究與技術(shù)研究所的心理學(xué)家羅伯特·愛潑斯坦在2015年的研究發(fā)現(xiàn)了“搜索引擎操縱效應(yīng)”(theSearchEngineManipulationEffect),人們已經(jīng)將Google等搜索引擎的算法視為”方便的權(quán)威來(lái)源”,帶有政治偏見的搜索排名可以將未決定選民的投票偏好改變至少 20%。

    在經(jīng)濟(jì)上,谷歌的壟斷性地位和龐大的體量已經(jīng)讓它成為了“巨頭”。自從美國(guó)在一個(gè)多世紀(jì)前好不容易通過(guò)了《反托拉斯法》扳倒了石油大亨們,成為“巨頭”這件事天然地就具有某些邪惡的意味。2020年,美國(guó)司法部和幾位州檢察官對(duì)谷歌分別提起了三起反壟斷訴訟,指控谷歌正在利用自己在搜索和數(shù)字廣告技術(shù)方面的壟斷權(quán)在扼殺競(jìng)爭(zhēng)。更別提,在歐盟對(duì)谷歌處以43.4億歐元的反壟斷罰款的2018年,谷歌悄悄地將“不作惡”移到了行為準(zhǔn)則的最后,似乎也意識(shí)到了“不作惡”不再是輕易的。

    在大眾眼中,越來(lái)越多的西方大科技公司違背了他們?cè)S諾的道德愿景,最明顯的是對(duì)社會(huì)保障的沖擊上。大量雇傭零工司機(jī)的Lyft,認(rèn)為自己幫助有色人種和城市邊緣的人們擺脫了拼車的時(shí)代,而人們更愿意討論的是,零工經(jīng)濟(jì)帶來(lái)了大量失去社會(huì)保障兜底的勞動(dòng)者。同時(shí),算法對(duì)社會(huì)保障更底層系統(tǒng)的沖擊體現(xiàn)在“算法越來(lái)越多地被用來(lái)確定重要社會(huì)產(chǎn)品的分配”,例如,工作名額、貸款額度、住房乃至社會(huì)保險(xiǎn)。因此,薩斯坎德呼吁我們必須正視算法正在成為一種“新的社會(huì)架構(gòu)”,成為經(jīng)濟(jì)和社會(huì)生活的真正組織者。這雖不意味著科技公司將會(huì)掌權(quán),但國(guó)家的角色將被迫迎來(lái)改變,薩斯坎德將之稱為“增壓狀態(tài)”,國(guó)家的預(yù)測(cè)和監(jiān)管能力將會(huì)發(fā)生重大的變化。

    顯而易見的是,西方現(xiàn)有的針對(duì)大科技公司的監(jiān)管已經(jīng)瀕臨失靈,將大科技公司僅僅視為商業(yè)“巨頭”所進(jìn)行的市場(chǎng)監(jiān)管收效甚微。

    算法賦予科技公司的權(quán)力已經(jīng)遠(yuǎn)遠(yuǎn)超越了市場(chǎng),更深地涉及社會(huì)生活的底層架構(gòu),而西方目前基于市場(chǎng)進(jìn)行的監(jiān)管和反壟斷制度,顯然難以“充分監(jiān)控算法的力量”。在薩斯坎德看來(lái),構(gòu)建未來(lái)監(jiān)控應(yīng)對(duì)之策的要點(diǎn)在于,人們必須要正視大科技公司不再僅僅是主導(dǎo)人們消費(fèi)的龍頭企業(yè),要在賦予大科技公司相應(yīng)的權(quán)力的基礎(chǔ)上,去構(gòu)思“嶄新的、大膽的監(jiān)管提案”,從而保障人們能夠生活在更正義的算法分配系統(tǒng)中。

    迎接新世界:“哲人工程師”和打開“黑匣子”

    在《算法的力量》的序言部分,薩斯坎德講了一個(gè)發(fā)生在維多利亞時(shí)代的故事,政治家威廉·格拉斯通和科學(xué)家邁克爾·法拉第偶遇了。法拉第試圖向前者解釋自己在電力方面的開創(chuàng)性工作,格拉斯通始終無(wú)法理解,反復(fù)地問:“這到底有什么用?”法拉第的耐心最終耗盡了,他回答道:“有什么用?先生,您可能很快就要對(duì)它征稅了。”

    和電力一樣,算法對(duì)于這個(gè)時(shí)代的大部分政治家和律師而言,有很大的可能不能完全明白。同時(shí),正如我們前文所分析的那樣,作為工具途徑的算法不能被期望能夠天然地實(shí)現(xiàn)正義。因此,薩斯坎德表示,通過(guò)收集數(shù)據(jù)、構(gòu)建系統(tǒng)和應(yīng)用規(guī)則來(lái)設(shè)計(jì)和調(diào)試算法的軟件工程師們,必須擔(dān)負(fù)起監(jiān)控和防止算法造成社會(huì)生活不公正的“哲人工程師”的巨大責(zé)任。畢竟,與其寄希望于監(jiān)管的介入,在設(shè)計(jì)算法時(shí)把正義作為準(zhǔn)則、并盡量規(guī)避人類的偏見對(duì)不公正的影響是更高效的措施。

    “哲人工程師”是薩斯坎德對(duì)于萬(wàn)維網(wǎng)發(fā)明人蒂姆·伯納斯-李(TimBerners-Lee)所提出的“哲學(xué)工程”(PhilosophicalEngineering)和柏拉圖的“哲人王”的概念的整合。伯納斯-李認(rèn)為,當(dāng)軟件工程師每創(chuàng)建一個(gè)協(xié)議時(shí),實(shí)際上在扮演上帝的角色,“定義一種新的哲學(xué)”,因此,軟件工程師必須對(duì)如何定義這種新哲學(xué)負(fù)起責(zé)任。“哲人王”則是柏拉圖在《理想國(guó)》中眾所周知的概念,這里不再贅述。薩斯坎德認(rèn)為,我們需要一代“哲學(xué)工程師”,他們既精通算法,又能夠洞悉關(guān)乎社會(huì)正義的哲學(xué),才能保證“歷史發(fā)展的弧線彎向正義”。

    其他研究社會(huì)領(lǐng)域中算法的學(xué)者們則認(rèn)為,盡量打開算法的“黑匣子”,讓算法在社會(huì)領(lǐng)域中變得更加透明是更重要的。

    哲學(xué)教授薩米爾·喬普拉(SamirChopra)在他的著作《自主人工智能的法律理論》中強(qiáng)調(diào),我們需要對(duì)算法可理解的社會(huì),在這個(gè)社會(huì)中,社會(huì)大眾盡可能地可以去了解算法的輸入和輸出過(guò)程,雖然在機(jī)器學(xué)習(xí)之下,算法變得越加難以理解,即使是設(shè)計(jì)算法的軟件工程師自身,但人們?nèi)耘f需要盡量奪回一些控制權(quán)。《黑匣子社會(huì):控制金錢和信息的秘密算法》一書的作者,馬里蘭大學(xué)法學(xué)教授弗蘭克·帕斯夸爾(FrankPasquale)則將打開“黑匣子”的希望寄于社會(huì)中包括程序員在內(nèi)的專業(yè)人士們的通力合作打造出的“算法問責(zé)制”:記者與計(jì)算機(jī)程序員和社會(huì)科學(xué)家合作,揭露新的侵犯隱私的數(shù)據(jù)收集、分析和使用技術(shù),并推動(dòng)監(jiān)管機(jī)構(gòu)打擊最嚴(yán)重的違規(guī)者;算法的研究人員和監(jiān)管機(jī)構(gòu)、檔案管理員、開放數(shù)據(jù)活動(dòng)家、公共利益律師組成聯(lián)盟,以為分析研究算法提供一套更加完整和平衡的“原材料”;社會(huì)科學(xué)家和大眾必須攜手同進(jìn),共同推進(jìn)和確保算法的生成是公平的。正如帕斯夸爾總結(jié)的,這樣的“算法問責(zé)制”將是個(gè)相當(dāng)巨大的工程,卻是一項(xiàng)非常緊迫的全球事業(yè)。

    但不管是強(qiáng)調(diào)軟件工程師必須承擔(dān)起“哲人”責(zé)任的薩斯坎德,還是強(qiáng)調(diào)要打開算法黑匣子和提高算法對(duì)社會(huì)的透明性的喬普拉和帕斯夸爾,他們都在強(qiáng)調(diào)人類不可推卸自身對(duì)于算法的主動(dòng)性。正如數(shù)學(xué)家兼科普作家漢娜·弗萊(Han-nahFry)在她的《你好,世界:如何在機(jī)器時(shí)代當(dāng)人類》(HelloWorld–Howtobehumanintheageofthemachine)一書中指出的,人類在與算法系統(tǒng)交互時(shí),扮演著“至關(guān)重要的角色”,我們必須“質(zhì)疑算法和大科技公司的決定,審查他們的動(dòng)機(jī),承認(rèn)我們的情緒,要求知道誰(shuí)將從中受益,讓他們?yōu)樽约旱腻e(cuò)誤負(fù)責(zé)并拒絕自滿”。一言以蔽之,正如弗萊所強(qiáng)調(diào)的,在任何過(guò)去的時(shí)代,人類自身從未像在算法時(shí)代一樣重要。

     

    觀察家部門編輯
    采訪并報(bào)道一切關(guān)于社會(huì)的文化思考,比較關(guān)注經(jīng)濟(jì)學(xué)和社會(huì)學(xué)及電影、小說(shuō)領(lǐng)域。
    郵箱:lipeishan@eeo.com.cn

    熱新聞

    人妻少妇精品专区性色
    <small id="gggg8"></small>
  • <nav id="gggg8"></nav>
  • <tr id="gggg8"></tr>
  • <sup id="gggg8"></sup>