文 / Rajen Sheth, Director of Product Management, Cloud AI
在過去的一年裡,我曾與數百位客戶面談,討論 AI 如何改變了他們對事物可能性的認識。我們討論了如何通過演演算法應用實現智能分診,從而減少醫護人員的工作量;如何實現準確的語言翻譯,從而將記者與全球各地的觀眾聯繫在一起;如何實現自動響應常見請求,從而減少客戶服務等待時間。我們能夠應用 AI 幫助客戶解決如此之多的業務問題,這著實令我感到驚訝,但這些客戶也在一定程度上表達了對 AI 的猶疑和擔心。
在這項技術的幫助下,我們實現了很多超乎想象的事情,但這同時也有可能帶來意料之外的後果。我們有許多客戶都在問:我們如何才能從 AI 中獲益同時又避免其帶來的挑戰?
NCSA Mosaic 網路瀏覽器,發佈於 1993 年
為便於從討論中得出正確的觀點,我經常會從上面這張圖片說起。這是在 1993 年面世的 Mosaic 網路瀏覽器,在我看來,2018 年 AI 技術的現況就好比當年的 Mosaic 網路瀏覽器。與上世紀 90 年代中期的網路技術類似,現時的 AI 正經歷著從學術領域到主流技術的快速轉變。網際網路革命讓我們受益良多,但同時也給我們帶來了諸多風險,我們有責任考慮擺在我們面前的各種可能性。畢竟,像電子郵件和簡訊等技術讓我們很輕鬆就能保持聯繫,要看到這一點並不難,但要想象這類技術在惡意軟體和網路霸凌等現象蔓延中所起的作用卻不那麼容易。
我們正在多個領域處理這些問題,其中以感知領域最為重要。為了促進人們更廣泛地理解公平對於機器學習等技術的必要性,我們創建了教育資源,例如 ml-fairness.com,並在 ML 教育速成課程中新近推出公平性模塊。
我們還看到一種鼓舞人心的趨勢,即藉助文檔記錄來更好地理解機器學習解決方案中的內容。今年早些時候,研究人員提出了一種記錄數據集的正式方法,這種方法特別適用於數據集包含以人為中心的信息或人口統計敏感信息的情況。以此觀點為基礎,Google 的研究人員提出了 「模型卡片」,這是一種用於描述機器學習模型的目標、假設、性能指標、甚至倫理道德考量的標準化格式。一目了然,模型卡片旨在幫助開發者(無論是否有 ML 專業知識)在掌握信息的情況下決定負責任地使用給定組件。
當然,我們一直致力於為開發者提供值得信賴的工具,在挑戰偏見方面也是一樣。首先從嵌入式文檔開始,例如包容性 ML 指南,我們將該指南集成在 AutoML 中,並擴展到類似 TensorFlow Model Analysis (TFMA) 和 What-If Tool 等工具,該指南為開發者提供所需的分析數據,使其確信他們的模型會公平對待所有用戶。TFMA 可以輕鬆將模型在用戶群體的不同環境、特徵和子集下的性能表現可視化,而 What-If 支持開發者輕鬆運行反設事實,闡明關鍵特徵(例如給定用戶的人口屬性)逆轉時可能會發生的情況。這兩個工具都可以提供沉浸式互動方法,用於詳細探索機器學習行為,幫助您識別公平性和代表性方面的失誤。
這是一個很難回答的問題,由於我們傾向於關注 AI 在極端情況下的行為,因此回答這一問題變得更加困難。例如,採用倫敦動物學會的做法,使用 AutoML 以低成本方式監控瀕危物種,這無疑是一個好方法,幾乎沒人會否認這點。我們也親眼目睹 Google 的開源機器學習框架 TensorFlow 如何幫助 Rainforest Connection 對抗非法森林採伐,幫助農民識別患病植株,以及預測發生森林大火的可能性。此外,我們的 AI 造福社會 (AI for Social Good) 計劃最近宣布撥款 2,500 萬美元,用於資助以解決人道主義和環境挑戰為目標的 AI 研究。 我們的變革應對數據解決方案 (Data Solutions for Change) 計劃將繼續幫助非盈利組織和 NGO(非政府組織)利用目標導向分析來應對失業問題,檢測阿茲海默症,創建更多可持續的食品系統以及優化社區規劃。
但是,這裡有一個巨大的 「灰色" 地帶,特別是像 AI 武器這種有爭議的領域,這個 「灰色」 地帶就是我們在 AI 原則中所述決定不去追尋的技術應用領域。在具有爭議的用例可能性方面,我們的客戶認為自己身處各種不同境地,希望我們能夠幫助他們徹底想清楚 AI 對其業務的意義。
我們正在與客戶和產品團隊合作,共同解決這些領域的問題。關於這個問題,為了能夠掌握資訊並帶來更多外部視角,我們尋求了技術倫理學家 Shannon Vallor 的幫助(她為 Cloud AI 提供諮詢),請她協助我們理解這個不斷發展的 「灰色」 地帶,以及我們的工作該如何融入其中。 從內部的 AI 倫理最佳實踐教育計劃到 AI 原則落實方面的諮詢建議,她從專家視角為 Cloud AI 介紹了如何通過倫理設計、分析和決策來引領這項技術的發展。例如,倫理設計原則可以用於幫助我們構建更加公平的機器學習模型。審慎的倫理分析能夠幫助我們了解視覺技術的哪些潛在用途是不恰當、有害或具侵入性的。倫理決策實踐可以幫助我們更好地推理具有挑戰性的兩難困境和複雜的價值權衡,例如是否在 AI 應用中將透明度或隱私放在優先位置,更多的透明度意味著更少的隱私,反之亦然。
共同打造 AI 的未來
對於前方的所有不確定因素,有一件事非常清楚:構建 AI 的未來,所需要的遠不只是技術。這需要我們共同努力,同樣有賴於工具、信息,以及對世界產生積極影響的共同願望。
正因此,這並非一份宣言,而是一場對話。雖然我們渴望分享多年來在技術最前沿學到的知識,但沒有人比您更了解您客戶的需求,而且這兩種視角都將在構建公平、負責任和值得信賴的 AI 中發揮至關重要的作用。畢竟,每個行業都在面臨自己的 AI 革命,因此,就引領 AI 的發展而言,每個行業都不可或缺。我們期待與您展開持續對話,一起聊聊如何讓承諾變為現實。