倍可親

回復: 1
列印 上一主題 下一主題

為 AI 指引正確方向

[複製鏈接]

8181

主題

1萬

帖子

2萬

積分

貝殼光明大使

Rank: 6Rank: 6

積分
26631
跳轉到指定樓層
樓主
小康人家 發表於 2018-11-28 10:48 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
  2018-11-27 16:35開發/技術/人類

  文 / Rajen Sheth, Director of Product Management, Cloud AI

  在過去的一年裡,我曾與數百位客戶面談,討論 AI 如何改變了他們對事物可能性的認識。我們討論了如何通過演演算法應用實現智能分診,從而減少醫護人員的工作量;如何實現準確的語言翻譯,從而將記者與全球各地的觀眾聯繫在一起;如何實現自動響應常見請求,從而減少客戶服務等待時間。我們能夠應用 AI 幫助客戶解決如此之多的業務問題,這著實令我感到驚訝,但這些客戶也在一定程度上表達了對 AI 的猶疑和擔心。

  在這項技術的幫助下,我們實現了很多超乎想象的事情,但這同時也有可能帶來意料之外的後果。我們有許多客戶都在問:我們如何才能從 AI 中獲益同時又避免其帶來的挑戰?

  

  NCSA Mosaic 網路瀏覽器,發佈於 1993 年

  為便於從討論中得出正確的觀點,我經常會從上面這張圖片說起。這是在 1993 年面世的 Mosaic 網路瀏覽器,在我看來,2018 年 AI 技術的現況就好比當年的 Mosaic 網路瀏覽器。與上世紀 90 年代中期的網路技術類似,現時的 AI 正經歷著從學術領域到主流技術的快速轉變。網際網路革命讓我們受益良多,但同時也給我們帶來了諸多風險,我們有責任考慮擺在我們面前的各種可能性。畢竟,像電子郵件和簡訊等技術讓我們很輕鬆就能保持聯繫,要看到這一點並不難,但要想象這類技術在惡意軟體和網路霸凌等現象蔓延中所起的作用卻不那麼容易。

  相較網路技術發展早期時產生的問題,未來十年我們可能會遇到更加複雜棘手的挑戰,但我們的客戶如此熱切地主動迎接挑戰,讓我備受鼓舞。事實上,同樣的問題往往會反覆出現:

  不公平的偏見:我們如何能夠確定我們的機器學習模型對每位用戶一視同仁?

  可解釋性:我們如何能夠讓 AI 更加透明,從而更好地理解它的建議?

  改變員工:我們如何能夠負責任地利用自動化技術的力量,同時確保現在的員工為未來做好準備?

  正確利用:最後,我們如何能夠確定我們正在將 AI 用於正途?

  不公平的偏見

  我們很容易認為演演算法是客觀的,而且絕對可靠,但事實是,機器學習模型的可靠性有賴於訓練模型時使用的數據。此外,由於負責尋找、組織和標記這些數據的都是人類,因此即便是最輕微的不規範行為,也很容易在結果中造成重大差異。更糟糕的是,演演算法的執行速度遠非人類所能及,再加上是在全球範圍內執行,因此不公平的偏見不僅被重複,而且還有所擴大。

  雖然不公平的偏見可能是蓄意偏見的產物,但我們的盲點卻發揮著更普遍的作用。例如,我們往往會被能夠證實自己信念的人和觀點所吸引,而對置疑我們信念的人和觀點,則容易迴避。這種現象被稱為證實性偏見,它甚至可以扭曲最有善意的開發者的看法。

  此外,由於我們身邊已經發現有不公平的偏見,因此即便是如實收集的數據,也可以反映這種偏見。例如,大量的歷史文本經常用於訓練涉及自然語言處理或翻譯的機器學習模型,如不改正,可能會使這種有害的成見持續下去。Bolukbasi 等人的開創性研究以令人震驚的清晰度量化了這一現象,證明統計語言模型能夠非常輕鬆地 「學習」 關於性別的過時假設,例如 「醫生」 是 「男性」,「護士」 是 「女性」。與此相似的嵌入性偏見問題在種族方面也有體現。

  我們正在多個領域處理這些問題,其中以感知領域最為重要。為了促進人們更廣泛地理解公平對於機器學習等技術的必要性,我們創建了教育資源,例如 ml-fairness.com,並在 ML 教育速成課程中新近推出公平性模塊。

  我們還看到一種鼓舞人心的趨勢,即藉助文檔記錄來更好地理解機器學習解決方案中的內容。今年早些時候,研究人員提出了一種記錄數據集的正式方法,這種方法特別適用於數據集包含以人為中心的信息或人口統計敏感信息的情況。以此觀點為基礎,Google 的研究人員提出了 「模型卡片」,這是一種用於描述機器學習模型的目標、假設、性能指標、甚至倫理道德考量的標準化格式。一目了然,模型卡片旨在幫助開發者(無論是否有 ML 專業知識)在掌握信息的情況下決定負責任地使用給定組件。

  當然,我們一直致力於為開發者提供值得信賴的工具,在挑戰偏見方面也是一樣。首先從嵌入式文檔開始,例如包容性 ML 指南,我們將該指南集成在 AutoML 中,並擴展到類似 TensorFlow Model Analysis (TFMA) 和 What-If Tool 等工具,該指南為開發者提供所需的分析數據,使其確信他們的模型會公平對待所有用戶。TFMA 可以輕鬆將模型在用戶群體的不同環境、特徵和子集下的性能表現可視化,而 What-If 支持開發者輕鬆運行反設事實,闡明關鍵特徵(例如給定用戶的人口屬性)逆轉時可能會發生的情況。這兩個工具都可以提供沉浸式互動方法,用於詳細探索機器學習行為,幫助您識別公平性和代表性方面的失誤。

  最後,我們計劃通過數據科學平台 Kaggle 充分發揮社區的力量。我們最近推出的包容性圖像挑戰賽主要解決圖像訓練集中地理多樣性偏差的問題,這一問題導致分類器經常難以描述來自代表人數不足地區的人。參賽者面臨的挑戰是構建能夠在無需整合新數據的前提下更好地在不同地理環境間進行泛化的模型,從而打造出更加包容、可靠的工具,以便更好地為全球用戶群提供服務。在此項任務中取得的進展將應用於其他領域,我們對此很樂觀,同時也很高興在 2018 年的神經信息處理系統大會上展示這些成果。

  對於目前採取的這些做法,我們深感自豪,我相信這些知識和我們正在開發的工具具有深遠的意義,必將促進 AI 技術的公平性。但沒有一家公司能夠獨自解決如此複雜的問題。這場對抗不公平偏見的鬥爭將是一次集體行動,由許多利益相關者的投入共同推動,我們會傾聽多方意見。世界不斷變化,我們也將繼續學習。

  可解釋性

  AI 如何能夠真正贏得我們的信任?這屬於一個更基本的問題,但其緊迫性絲毫不亞於應對不公平偏見的挑戰。隨著機器學習在決策領域發揮的作用越來越大(這曾經是人類的專屬領域),答案將越來越多地依靠一個關鍵因素:可說明性。

  許多深度學習演演算法自誕生起就一直被人們視作 「神秘黑匣」 般的存在,這是因為就連它們的創造者也難以準確表達輸入和輸出之間究竟發生了什麼。如果我們繼續把 AI 當作 「神秘黑匣」 看待,那我們就不能指望得到人們的信任,因為信任源自了解。對於傳統軟體,我們可以通過逐行檢查源代碼來揭示其中的邏輯,但神經網路是一個通過暴露在數千乃至數百萬個訓練示例中而形成的密集連接網路,所以結果只能是折衷一下,取靈活性而損直觀解釋性。

  隨著最佳實踐的建立,成套工具的增多,再加上大家都在努力從開發周期伊始就獲得可解釋的結果,我們這方面的工作正在不斷取得進展。事實上,在今年早些時候發布構建負責任的 AI 系統的原則之時,我們就已將可解釋性列為四大基礎支柱之一。

  目前,我們看到業界已經在現實中考慮可解釋性這一問題。例如,在圖像分類領域,Google AI 最近的研究演示了一種表現人性化概念的的方法,例如條紋狀皮毛或捲髮,然後在給定圖像中量化這些概念的普遍性。由此產生的分類器能夠根據對人類用戶最有意義的特點來清楚表達其推理過程。例如,它可能將圖像歸類為 「斑馬」,部分原因在於 「條紋」 特徵較明顯,而 「圓點花紋」 特徵相對不夠明顯。實際上,研究人員正在試驗將這種方法應用於糖尿病視網膜病變的診斷,它可以使輸出更加透明,當專家不同意模型的推理時,甚至允許對模型進行調整。

  改變員工

  無可否認,我們與工作的關係正在發生變化,我們有許多客戶都想知道應該如何平衡自動化技術的潛力與員工的價值。

  不過,我認為自動化技術的未來並非一場零和遊戲。PWC 最近的一份報告顯示,67% 的高管認為通過人工智慧和人類智能相結合,AI 將助推人類和機器協同工作,發揮更強大的作用。

  另外,我們必須記往一點,工作很少會是單一的。大多數工作都是由無數不同任務組成,從高度創新到重複性任務,每一項任務都會在特定程度上受到自動化的影響。例如,在放射醫學中,演演算法發揮著輔助作用,通過自動評估簡單常見的癥狀,讓人類專家可以集中精力應對更具挑戰性的任務,同時更快、更持續地工作。

  然而,某些類別的工作面對的變化要比其他工作更加緊迫,並且要做出更多努力才能緩和這種轉變。為此,Google.org 拿出了 5,000 萬美元的資金,用於支持非盈利組織從三大方面為未來的工作做好準備:

  提供終身培訓和教育,讓工人能夠滿足工作要求

  根據技能和經驗,將潛在員工與理想的工作機會聯繫起來

  為從事低收入工作的工人提供支持

  當然,這只是第一步,我們期待在未來幾年中為越來越多的類似舉措提供支持。

  正確利用

  最後,還有一個最重要的問題:「如何能夠確定我正在運用 AI 給人們的生活帶來積極影響?」

  這是一個很難回答的問題,由於我們傾向於關注 AI 在極端情況下的行為,因此回答這一問題變得更加困難。例如,採用倫敦動物學會的做法,使用 AutoML 以低成本方式監控瀕危物種,這無疑是一個好方法,幾乎沒人會否認這點。我們也親眼目睹 Google 的開源機器學習框架 TensorFlow 如何幫助 Rainforest Connection 對抗非法森林採伐,幫助農民識別患病植株,以及預測發生森林大火的可能性。此外,我們的 AI 造福社會 (AI for Social Good) 計劃最近宣布撥款 2,500 萬美元,用於資助以解決人道主義和環境挑戰為目標的 AI 研究。 我們的變革應對數據解決方案 (Data Solutions for Change) 計劃將繼續幫助非盈利組織和 NGO(非政府組織)利用目標導向分析來應對失業問題,檢測阿茲海默症,創建更多可持續的食品系統以及優化社區規劃。

  但是,這裡有一個巨大的 「灰色" 地帶,特別是像 AI 武器這種有爭議的領域,這個 「灰色」 地帶就是我們在 AI 原則中所述決定不去追尋的技術應用領域。在具有爭議的用例可能性方面,我們的客戶認為自己身處各種不同境地,希望我們能夠幫助他們徹底想清楚 AI 對其業務的意義。

  

8181

主題

1萬

帖子

2萬

積分

貝殼光明大使

Rank: 6Rank: 6

積分
26631
沙發
 樓主| 小康人家 發表於 2018-11-28 10:48 | 只看該作者
我們正在與客戶和產品團隊合作,共同解決這些領域的問題。關於這個問題,為了能夠掌握資訊並帶來更多外部視角,我們尋求了技術倫理學家 Shannon Vallor 的幫助(她為 Cloud AI 提供諮詢),請她協助我們理解這個不斷發展的 「灰色」 地帶,以及我們的工作該如何融入其中。 從內部的 AI 倫理最佳實踐教育計劃到 AI 原則落實方面的諮詢建議,她從專家視角為 Cloud AI 介紹了如何通過倫理設計、分析和決策來引領這項技術的發展。例如,倫理設計原則可以用於幫助我們構建更加公平的機器學習模型。審慎的倫理分析能夠幫助我們了解視覺技術的哪些潛在用途是不恰當、有害或具侵入性的。倫理決策實踐可以幫助我們更好地推理具有挑戰性的兩難困境和複雜的價值權衡,例如是否在 AI 應用中將透明度或隱私放在優先位置,更多的透明度意味著更少的隱私,反之亦然。

  共同打造 AI 的未來

  對於前方的所有不確定因素,有一件事非常清楚:構建 AI 的未來,所需要的遠不只是技術。這需要我們共同努力,同樣有賴於工具、信息,以及對世界產生積極影響的共同願望。

  正因此,這並非一份宣言,而是一場對話。雖然我們渴望分享多年來在技術最前沿學到的知識,但沒有人比您更了解您客戶的需求,而且這兩種視角都將在構建公平、負責任和值得信賴的 AI 中發揮至關重要的作用。畢竟,每個行業都在面臨自己的 AI 革命,因此,就引領 AI 的發展而言,每個行業都不可或缺。我們期待與您展開持續對話,一起聊聊如何讓承諾變為現實。
回復 支持 反對

使用道具 舉報

您需要登錄后才可以回帖 登錄 | 註冊

本版積分規則

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2024-4-25 09:48

快速回復 返回頂部 返回列表