美國時間 2018 年 4 月 4 日,根據(jù)紐約時報報導(dǎo),有 3100 名的谷歌員工聯(lián)名發(fā)出公開信,向谷歌 CEO Sundar Pichai 進(jìn)言,要求讓谷歌退出由美國國防部 Maven 計(jì)劃(Project Maven),在這封由谷歌員工聯(lián)名的信中,一開始就明確提及,谷歌不應(yīng)該參與任何與戰(zhàn)爭有關(guān)的生意,而谷歌不但應(yīng)該要立刻退出Maven 計(jì)劃,Sundar Pichai 更應(yīng)該公開向所有人承諾,谷歌永遠(yuǎn)不會參與打造任何類型的戰(zhàn)爭科技。
但到目前為止,谷歌除了由發(fā)言體系出面說明谷歌所參與的 Maven計(jì)劃 部份內(nèi)容外,仍未明確說明是否退出、或?qū)⒉扇『畏N作為,以因應(yīng)目前已有 3100 名員工連名抗議的狀況。
而就在同一時間,在亞洲也發(fā)生了同樣AI學(xué)術(shù)研究界群起抵制不當(dāng)用途的AI技術(shù)開發(fā)研究的運(yùn)動。根據(jù)The Verge報導(dǎo),全球超過 50 名的人工智能與機(jī)器人科學(xué)家與研究人員共同宣布抵制與韓國科學(xué)技術(shù)院大學(xué)(KAISTUniversity)合作,這其中包括多位AI學(xué)術(shù)大神,Geoffrey Hinton、Yoshua Bengio、JürgenSchmidhuber,此一抵制行動將無限期持續(xù),直到KAIST大學(xué)保證其開發(fā)的武器將具有“真正意義上的人類控制”。
圖丨美國國防部辦公大樓
對于 AI 善惡的討論雖然已經(jīng)很多,但到目前為止,卻仍是各說各話的居多,大部份人都認(rèn)為,人類必須要能夠控制AI技術(shù)的演進(jìn)發(fā)展,而不能放任到無法控制的地步。但也有人認(rèn)為,AI 為惡的可怕之處,不在于由AI自行演化所造成的失去控制,而在于有心作惡的人通過以 AI 作為工具,進(jìn)而造成一發(fā)不可收拾的科技災(zāi)難。
而以谷歌參與美國國防部 Maven 計(jì)劃、以及韓國 KAIST 的殺手機(jī)器人開發(fā)計(jì)劃來看,其實(shí)就正游走為善與作惡的灰色地帶邊緣。
之所以有 3100 名的谷歌員工聯(lián)署發(fā)信要求退出 Maven 計(jì)劃,就是因?yàn)檫@些谷歌人看到了危險的訊號,盡管公司先前已經(jīng)說明 Maven 計(jì)劃的性質(zhì)屬于針對無人機(jī)拍攝視頻進(jìn)行分析,并非用于戰(zhàn)爭武器的技術(shù)開發(fā),但對于反對公司參與美國國防部 Maven 計(jì)劃的谷歌員工而言,這些說明都只是官樣文章的多余。
對于擁有一個舉世皆知座右銘 “ Don’t Be Evil ”的公司而言,在眾多的谷歌天才員工中,有許多之所以選擇加入,并不只是因?yàn)榇觯嗟氖切叛雠c理念。也因此,在上書給 Sundar Pichai 的員工聯(lián)名信中就特別強(qiáng)調(diào): “(Maven)這個計(jì)劃將對谷歌品牌造成嚴(yán)重的傷害,也會令人才對加入谷歌公司觀望卻步,世界上已經(jīng)有很多人對AI存有偏見,也抱持著高度的戒心,特別是如果AI技術(shù)被拿來用于武器開發(fā)上,這無疑會讓AI受到更嚴(yán)重的質(zhì)疑?!?/p>
至于引發(fā)全球多位AI學(xué)者與研究人員共同抵制合作的韓國KAIST大學(xué)計(jì)劃,則是由新南威爾士大學(xué)教授 Toby Walsh 發(fā)起,在發(fā)起抵制運(yùn)動的公開信中,Toby Walsh 就提到:“如果開發(fā)出來,自主武器將使戰(zhàn)爭更快速地蔓延,規(guī)模比以往更大?!倍@個潘多拉盒子一旦被打開,就將很難關(guān)閉。
到底誰在嘗試打開潘多拉的盒子?
美國總統(tǒng)特朗普上任以來,該政府各部門預(yù)算均在縮減,除了國防部。這樣的動作讓各國都對美產(chǎn)生了戒備心,包括該國公民。
圖丨特朗普政府預(yù)算調(diào)配圖
而在這些預(yù)算增長的過程中,有很大一筆費(fèi)用被用做了現(xiàn)代軍事武器開發(fā)。其中就包括Maven 計(jì)劃,此一計(jì)劃應(yīng)用深度學(xué)習(xí)計(jì)算機(jī)視覺技術(shù),旨在幫助國防部門從圖像和視頻中提取值得注意的對象。Maven 這個單詞來自于意第緒語(猶太語),意為知識的積累。而這個項(xiàng)目則也需要大量的知識積累才能完成。
雖然國防部解釋,此一計(jì)劃系對無人機(jī)視頻做進(jìn)一步分析,可以挑選出人類目標(biāo)并實(shí)施襲擊。同時有助于更好地分辨出平民,以減少無辜者被意外殺害的風(fēng)險,但這樣的說法,顯然不為谷歌員工所接受。
而前 Alphabet 董事長 Eric Schmidt 去年也在一次五角大樓會議中說:“科技圈普遍對軍工聯(lián)合開發(fā)武器,最終造成無辜人員傷亡這一現(xiàn)狀懷有顧慮?!?/p>
韓國KAIST大學(xué)也遭抵制
而由新南威爾士大學(xué)教授 Toby Walsh 發(fā)起,組織了來自全球 30 個國家、超過 50 名人工智能和機(jī)器人研究人員,他們宣布將聯(lián)合抵制韓國科學(xué)技術(shù)院大學(xué)(KAIST University),起因于KAIST 在 2 月與韓國集束彈藥制造商—韓華系統(tǒng)(Hanwha Systems)公司,設(shè)立了人工智能武器實(shí)驗(yàn)室,令外界擔(dān)憂很可能會開發(fā)“殺手機(jī)器人”。
圖丨殺手機(jī)器人
Toby Walsh 表示,“KAIST的行動只會加速這場軍備競賽”,此次的學(xué)術(shù)抵制行動將在下周于日內(nèi)瓦舉辦的聯(lián)合國對于致命自主武器帶來的挑戰(zhàn)展開討論,先前大約有 22 個國家已經(jīng)呼吁徹底禁止這種武器的開發(fā)。
而被點(diǎn)名的 KAIST 校長 Sung-Chul Shin 也隨即對此做出回應(yīng),表示大學(xué)對于“人工智能”的倫理問題非常了解”,并重申 KAIST 不會進(jìn)行任何對抗人類尊嚴(yán)的研究活動,包括不具備人類控制的自主武器。
雖然對KAIST大學(xué)的抵制意義重大,但一些專家表示,限制自動武器發(fā)展的運(yùn)動是徒勞的。在此之前,已經(jīng)有人工智能和機(jī)器人領(lǐng)域的科學(xué)家相繼寫信給聯(lián)合國,強(qiáng)調(diào)在沒有人為干預(yù)的情況下,殺人武器可能會破壞世界的穩(wěn)定,應(yīng)該受到國際條約的控制。
而這的確得到了一些國際支持,包括埃及,阿根廷和巴基斯坦在內(nèi)的19個國家支持這一倡議,但也有其他國家如美國和英國等,則認(rèn)為這樣的作法并不切實(shí)際,因?yàn)椴豢赡芙缍ㄊ裁词侨藶榭刂疲裁床皇侨藶榭刂?,?dāng)前已有許多軍事系統(tǒng)擁有部份自主能力,包括無人機(jī)和導(dǎo)彈防御網(wǎng)絡(luò)。
下一個你必須知道的新字:FAT ML
有一個關(guān)鍵字,不論你是不是科學(xué)家、程序員,而是每一個人都得知道,那就是 FAT ML,這是幾個英文字的縮寫:公平(Fairness)、責(zé)任(Accountability)、透明性(Transparency)in Machine Learning(機(jī)器學(xué)習(xí)),這股由科技界、學(xué)界發(fā)起、勿讓人工智能為惡的風(fēng)潮,已經(jīng)從硅谷蔓延到了全球。
一直以來,科技的發(fā)展往往會帶來正面和負(fù)面影響,但技術(shù)是中性的,取決于人類如何應(yīng)用它,以及當(dāng)有心人士利用它作惡時,有沒有一套機(jī)制可以防止或挽回傷害,而人工智能也是如此,特別是AI是使用龐大的數(shù)據(jù)來進(jìn)行訓(xùn)練,而這些訓(xùn)練數(shù)據(jù)能否足以代表“總體”,再加上AI的訓(xùn)練還是一個黑盒子,工程師們并不完全理解他們自己的算法是如何工作的,輸入數(shù)據(jù)、制定條件,然后就只能等待機(jī)器出現(xiàn)的內(nèi)容,因此很可能在無心之下,發(fā)展出具有偏見、歧視的 AI ,更何況是在意圖明確的情境下發(fā)展具有 AI 能力的武器。
也就是說,開發(fā)人員在開發(fā) AI 算法時,應(yīng)該更重視算法背后的公平性、責(zé)任性、透明性,這也就是FAT ML 的意義。另外,越來越多人支持,AI 發(fā)展的前提,應(yīng)該是接受更多元的意見,確保社會科學(xué)家、倫理學(xué)家、哲學(xué)家、律師、醫(yī)生在人工智能的開發(fā)和應(yīng)用方面也應(yīng)該要擁有發(fā)言權(quán)。
去年特斯拉創(chuàng)辦人 Elon Musk 領(lǐng)銜全球百名AI 專家致信聯(lián)合國《特定常規(guī)武器公約》會議,呼吁采取相關(guān)的措施來制止圍繞“智能武器”而展開的軍備競賽。而由LinkedIn創(chuàng)始人 Reid Hoffman 贊助的人工智能道德及管理基金(Ethicsand Governance of Artificial Intelligence Fund)宣布向9 個組織包括MIT媒體實(shí)驗(yàn)室、哈佛大學(xué),提供 760 萬美元的支持,旨在加強(qiáng)公民社會的聲音,并協(xié)助發(fā)展符合公眾利益的人工智能,還有許多重要人物像是亞馬遜AWS 深度學(xué)習(xí)首席科學(xué)家AnimaAnandkumar、卡內(nèi)基梅隆大學(xué)(CMU)教授Zachary Lipton、猶他大學(xué)的數(shù)據(jù)科學(xué)倫理方面的教授SureshVenkatasubramanian,也紛紛對FAT ML 表達(dá)高度支持。
為什么這一群牽動全球人工智能發(fā)展的人士,會如此擔(dān)心人工智能遭到惡意使用或?yàn)E用,因?yàn)檫@股人工智能的浪潮下,已經(jīng)有不少“脫序”演出,輕則利用生成對抗式網(wǎng)絡(luò)(GAN)打造DeepFake 換臉技術(shù),把明星的臉套到了色情影片演員的臉上,你可能會覺得這種惡搞很有趣,但更嚴(yán)重的可能是將導(dǎo)致網(wǎng)路色情報復(fù)問題更加泛濫。
同時,利用當(dāng)今資料、數(shù)據(jù)所訓(xùn)練出來的人工智能也有所謂的“種族歧視”、“種族主義”問題,當(dāng)然,更令人憂慮的是AI打造殺人機(jī)器,致命智能武器的潘多拉魔盒一旦打開,將很難被關(guān)上。因此如何讓人工智能是朝對整體社會有益前進(jìn),而非用以傷害人類,這將是所有人得面對的問題,值得慶幸的是,不少擁有發(fā)展AI的學(xué)者、科學(xué)家、科技人已經(jīng)向全球提出了警訊。
2014年康奈爾大學(xué)信息科學(xué)系助理教授 Solon Barocas 召集了產(chǎn)學(xué)界成立FAT ML 年度大會,希望讓世人關(guān)注逃不了的AI 道德議題,在這幾年期間人工智能經(jīng)歷了一波盛大的高潮,我們見證了棋類游戲超越人類,人臉識別、機(jī)器翻譯的水平來到了新高,機(jī)器在生活中替人類做出越來越多的決定.
但是,如何讓 AI 符合人類良善的普世價值,無疑是 AI 想要走進(jìn)下一個階段必須解決的棘手問題,經(jīng)典的科幻電影《2001太空漫游》(2001: ASpace Odyssey)推出至今剛滿50周年,其中殺人機(jī)器人的劇情讓大眾感到不安憂慮,《魔鬼終結(jié)者》、《機(jī)械公敵》等電影也向世人預(yù)警可能的危機(jī),“關(guān)于人工智能,我們正在招喚惡魔,”馬斯克曾如此說,那么在惡魔被召喚之前,阻止惡事發(fā)生不只是工程師、科學(xué)家的責(zé)任,而是所有人的責(zé)任。
評論列表
情感分析的比較透徹,男女朋友們可以多學(xué)習(xí)學(xué)習(xí)
可以幫助復(fù)合嗎?
如果發(fā)信息,對方就是不回復(fù),還不刪微信怎么挽回?