倍可親

回復: 2
列印 上一主題 下一主題

暴風前夕:今天,超50位AI頂級學者宣布與製造AI武器的韓國大學斷交

[複製鏈接]

1萬

主題

2萬

帖子

3萬

積分

貝殼精神領袖

Rank: 6Rank: 6

積分
35927
跳轉到指定樓層
樓主
華盛頓人 發表於 2018-4-6 10:08 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
  暴風前夕:今天,超50位AI頂級學者宣布與製造AI武器的韓國大學斷交,3100名谷歌員工抗議五角大樓AI軍事項目

  2018-04-05 16:41谷歌/人工智慧/機器人

  美國時間 2018 年 4 月 4 日,根據紐約時報報導,有 3100 名的谷歌員工聯名發出公開信,向谷歌 CEO Sundar Pichai 進言,要求讓谷歌退出由美國國防部 Maven 計劃(Project Maven),在這封由谷歌員工聯名的信中,一開始就明確提及,谷歌不應該參與任何與戰爭有關的生意,而谷歌不但應該要立刻退出Maven 計劃,Sundar Pichai 更應該公開向所有人承諾,谷歌永遠不會參與打造任何類型的戰爭科技。

  但到目前為止,谷歌除了由發言體系出面說明谷歌所參與的 Maven計劃 部份內容外,仍未明確說明是否退出、或將採取何種作為,以因應目前已有 3100 名員工連名抗議的狀況。

  而就在同一時間,在亞洲也發生了同樣AI學術研究界群起抵制不當用途的AI技術開發研究的運動。根據The Verge報導,全球超過 50 名的人工智慧與機器人科學家與研究人員共同宣布抵制與韓國科學技術院大學(KAISTUniversity)合作,這其中包括多位AI學術大神,Geoffrey Hinton、Yoshua Bengio、JürgenSchmidhuber,此一抵制行動將無限期持續,直到KAIST大學保證其開發的武器將具有「真正意義上的人類控制」。

  

  圖丨美國國防部辦公大樓

  對於 AI 善惡的討論雖然已經很多,但到目前為止,卻仍是各說各話的居多,大部份人都認為,人類必須要能夠控制AI技術的演進發展,而不能放任到無法控制的地步。但也有人認為,AI 為惡的可怕之處,不在於由AI自行演化所造成的失去控制,而在於有心作惡的人通過以 AI 作為工具,進而造成一發不可收拾的科技災難。

  而以谷歌參與美國國防部 Maven 計劃、以及韓國 KAIST 的殺手機器人開發計劃來看,其實就正遊走為善與作惡的灰色地帶邊緣。

  之所以有 3100 名的谷歌員工聯署發信要求退出 Maven 計劃,就是因為這些谷歌人看到了危險的訊號,儘管公司先前已經說明 Maven 計劃的性質屬於針對無人機拍攝視頻進行分析,並非用於戰爭武器的技術開發,但對於反對公司參與美國國防部 Maven 計劃的谷歌員工而言,這些說明都只是官樣文章的多餘。

  對於擁有一個舉世皆知座右銘「 Don』t Be Evil 」的公司而言,在眾多的谷歌天才員工中,有許多之所以選擇加入,並不只是因為待遇,而更多的是信仰與理念。也因此,在上書給 Sundar Pichai 的員工聯名信中就特彆強調:「(Maven)這個計劃將對谷歌品牌造成嚴重的傷害,也會令人才對加入谷歌公司觀望卻步,世界上已經有很多人對AI存有偏見,也抱持著高度的戒心,特別是如果AI技術被拿來用於武器開發上,這無疑會讓AI受到更嚴重的質疑。」

  

  至於引發全球多位AI學者與研究人員共同抵制合作的韓國KAIST大學計劃,則是由新南威爾士大學教授Toby Walsh 發起,在發起抵制運動的公開信中,Toby Walsh 就提到:「如果開發出來,自主武器將使戰爭更快速地蔓延,規模比以往更大。」而這個潘多拉盒子一旦被打開,就將很難關閉。

  到底誰在嘗試打開潘多拉的盒子?

  美國總統特朗普上任以來,該政府各部門預算均在縮減,除了國防部。這樣的動作讓各國都對美產生了戒備心,包括該國公民。

  

  圖丨特朗普政府預算調配圖

  而在這些預算增長的過程中,有很大一筆費用被用做了現代軍事武器開發。其中就包括Maven 計劃,此一計劃應用深度學習計算機視覺技術,旨在幫助國防部門從圖像和視頻中提取值得注意的對象。Maven 這個單詞來自於意第緒語(猶太語),意為知識的積累。而這個項目則也需要大量的知識積累才能完成。

  雖然國防部解釋,此一計劃系對無人機視頻做進一步分析,可以挑選出人類目標並實施襲擊。同時有助於更好地分辨出平民,以減少無辜者被意外殺害的風險,但這樣的說法,顯然不為谷歌員工所接受。

  而前Alphabet 董事長Eric Schmidt 去年也在一次五角大樓會議中說:「科技圈普遍對軍工聯合開發武器,最終造成無辜人員傷亡這一現狀懷有顧慮。」

  韓國KAIST大學也遭抵制

  而由新南威爾士大學教授Toby Walsh 發起,組織了來自全球30 個國家、超過50 名人工智慧和機器人研究人員,他們宣布將聯合抵制韓國科學技術院大學(KAIST University),起因於KAIST 在2 月與韓國集束彈藥製造商—韓華系統(Hanwha Systems)公司,設立了人工智慧武器實驗室,令外界擔憂很可能會開發「殺手機器人」。

  

  圖丨殺手機器人

  Toby Walsh 表示,「KAIST的行動只會加速這場軍備競賽」,此次的學術抵制行動將在下周於日內瓦舉辦的聯合國對於致命自主武器帶來的挑戰展開討論,先前大約有22 個國家已經呼籲徹底禁止這種武器的開發。

  而被點名的KAIST 校長Sung-Chul Shin 也隨即對此做出回應,表示大學對於「人工智慧」的倫理問題非常了解」,並重申KAIST 不會進行任何對抗人類尊嚴的研究活動,包括不具備人類控制的自主武器。

  雖然對KAIST大學的抵制意義重大,但一些專家表示,限制自動武器發展的運動是徒勞的。在此之前,已經有人工智慧和機器人領域的科學家相繼寫信給聯合國,強調在沒有人為干預的情況下,殺人武器可能會破壞世界的穩定,應該受到國際條約的控制。

  而這的確得到了一些國際支持,包括埃及,阿根廷和巴基斯坦在內的19個國家支持這一倡議,但也有其他國家如美國和英國等,則認為這樣的作法並不切實際,因為不可能界定什麼是人為控制,什麼不是人為控制,當前已有許多軍事系統擁有部份自主能力,包括無人機和導彈防禦網路。

  下一個你必須知道的新字:FAT ML

  有一個關鍵字,不論你是不是科學家、程序員,而是每一個人都得知道,那就是FAT ML,這是幾個英文字的縮寫:公平(Fairness)、責任(Accountability)、透明性(Transparency)in Machine Learning(機器學習),這股由科技界、學界發起、勿讓人工智慧為惡的風潮,已經從矽谷蔓延到了全球。

  一直以來,科技的發展往往會帶來正面和負面影響,但技術是中性的,取決於人類如何應用它,以及當有心人士利用它作惡時,有沒有一套機制可以防止或挽回傷害,而人工智慧也是如此,特別是AI是使用龐大的數據來進行訓練,而這些訓練數據能否足以代表「總體」,再加上AI的訓練還是一個黑盒子,工程師們並不完全理解他們自己的演演算法是如何工作的,輸入數據、制定條件,然後就只能等待機器出現的內容,因此很可能在無心之下,發展出具有偏見、歧視的AI ,更何況是在意圖明確的情境下發展具有AI 能力的武器。

  也就是說,開發人員在開發AI 演演算法時,應該更重視演演算法背後的公平性、責任性、透明性,這也就是FAT ML 的意義。另外,越來越多人支持,AI 發展的前提,應該是接受更多元的意見,確保社會科學家、倫理學家、哲學家、律師、醫生在人工智慧的開發和應用方面也應該要擁有發言權。

 
時代小人物. 但也有自己的思想,情感. 和道德.

1萬

主題

2萬

帖子

3萬

積分

貝殼精神領袖

Rank: 6Rank: 6

積分
35927
沙發
 樓主| 華盛頓人 發表於 2018-4-6 10:08 | 只看該作者
 去年特斯拉創辦人 Elon Musk 領銜全球百名AI 專家致信聯合國《特定常規武器公約》會議,呼籲採取相關的措施來制止圍繞「智能武器」而展開的軍備競賽。而由LinkedIn創始人Reid Hoffman 贊助的人工智慧道德及管理基金(Ethicsand Governance of Artificial Intelligence Fund)宣布向9 個組織包括MIT媒體實驗室、哈佛大學,提供760 萬美元的支持,旨在加強公民社會的聲音,並協助發展符合公眾利益的人工智慧,還有許多重要人物像是亞馬遜AWS 深度學習首席科學家AnimaAnandkumar、卡內基梅隆大學(CMU)教授Zachary Lipton、猶他大學的數據科學倫理方面的教授SureshVenkatasubramanian,也紛紛對FAT ML 表達高度支持。

  

  為什麼這一群牽動全球人工智慧發展的人士,會如此擔心人工智慧遭到惡意使用或濫用,因為這股人工智慧的浪潮下,已經有不少「脫序」演出,輕則利用生成對抗式網路(GAN)打造DeepFake 換臉技術,把明星的臉套到了色情影片演員的臉上,你可能會覺得這種惡搞很有趣,但更嚴重的可能是將導致網路色情報復問題更加泛濫。

  同時,利用當今資料、數據所訓練出來的人工智慧也有所謂的「種族歧視」、「種族主義」問題,當然,更令人憂慮的是AI打造殺人機器,致命智能武器的潘多拉魔盒一旦打開,將很難被關上。因此如何讓人工智慧是朝對整體社會有益前進,而非用以傷害人類,這將是所有人得面對的問題,值得慶幸的是,不少擁有發展AI的學者、科學家、科技人已經向全球提出了警訊。

  2014年康奈爾大學信息科學系助理教授Solon Barocas 召集了產學界成立FAT ML 年度大會,希望讓世人關注逃不了的AI 道德議題,在這幾年期間人工智慧經歷了一波盛大的高潮,我們見證了棋類遊戲超越人類,人臉識別、機器翻譯的水平來到了新高,機器在生活中替人類做出越來越多的決定.

  但是,如何讓AI 符合人類良善的普世價值,無疑是 AI 想要走進下一個階段必須解決的棘手問題,經典的科幻電影《2001太空漫遊》(2001: ASpace Odyssey)推出至今剛滿50周年,其中殺人機器人的劇情讓大眾感到不安憂慮,《魔鬼終結者》、《機械公敵》等電影也向世人預警可能的危機,「關於人工智慧,我們正在招喚惡魔,」馬斯克曾如此說,那麼在惡魔被召喚之前,阻止惡事發生不只是工程師、科學家的責任,而是所有人的責任。

  -End-

時代小人物. 但也有自己的思想,情感. 和道德.
回復 支持 反對

使用道具 舉報

1

主題

26

帖子

2392

積分

六星貝殼精英

Rank: 4

積分
2392
3
也和諧 發表於 2018-4-7 08:09 | 只看該作者
人類必將被自己所埋葬。AI就象核武器條約,真的研發出來了,在簽已經沒有多少意義了。一定要在未完全開放之前,先定下規矩。最好是不要開發。否則遺患無窮。
也和諧
回復 支持 反對

使用道具 舉報

您需要登錄后才可以回帖 登錄 | 註冊

本版積分規則

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2024-4-26 14:54

快速回復 返回頂部 返回列表