倍可親

回復: 0
列印 上一主題 下一主題

如何避免人工智慧的偏見?專家建議設立第三方監督機構

[複製鏈接]

1萬

主題

3萬

帖子

6萬

積分

貝殼光輝歲月

倍可親決策會員(19級)

Rank: 6Rank: 6

積分
60345
跳轉到指定樓層
樓主
新鮮人 發表於 2017-2-2 12:51 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
  2017-02-01 20:59   愛范兒

  

  隨著人工智慧的發展,人類正在把更多決策權交給計算機。問題在於,這些演演算法並不是透明的,而是掌握在少數科技公司手裡。出於商業競爭需求,它們很少透漏決策背後的細節。為此,計算機專家們建議,應當設立第三方的監督機構,以避免演演算法自身的一些偏見。

  據衛報的報道,在一份新報告中,倫敦圖靈研究所與牛津大學的研究團隊提出了上述想法。他們認為,當人們覺得自己遭到不公正待遇后,第三方機構應該調查人工智慧做出的決策。「我們希望看到一個可信任的第三方機構。它應該有檢查和監督演演算法的權力,能夠了解演演算法是否真的透明和公正。」 研究人員 Sandra Wachter 說。

  

  (圖片來自 singularityhub)

  2018 年,歐盟成員國將採用一項新法案,以監督人工智慧系統的應用。不過,研究人員認為,這項法案的實際作用是值得懷疑的。「有人覺得,這項法案能夠讓人工智慧系統更加透明,但是,這並一定能實現。一切都取決於歐盟成員國法庭的解釋,」 另一位研究人員 Mittelstadt 說。

  不過,即使第三方機構已經設立,對演演算法的監督並非一件易事。「監督機構需要如何具備何種能力?我們並不知道完整的答案。因為,人工智慧系統是難以預測、不斷變化而且難以理解的。開發團隊也未必能完全理解。」 Mittelstadt 說。另外,科技公司可能會抗議,因為現代的人工智慧技術是「難以理解」的,例如深度學習。

  

  (圖片來自phdmedia)

  西英格蘭大學的機器人道德學教授 Alan Winfield 正在主導人工智慧行業標準的起草工作,目的是讓人工智慧系統更加透明,更加容易追責。「監督機構是個非常好的建議,」他說,「這不是一個未來問題,而是一個現實問題。」

  但是,他認為科技公司也未必能解釋人工智慧的決策。那些基於深度學習的演演算法很不透明,基本上不可能解釋其作出某項決策的原因何在。「我向科技公司——比如 Google 的 DeepMind——提出的挑戰是,發明一套可以自我解釋的深度學習系統,」 Winfield 說,「那不是件容易的事情,不過,研究這些系統的都是些非常聰明的傢伙啊。」

  圖片來自 watson2016

知之為知之,不知為不知,是知也

海納百川,  有容乃大
您需要登錄后才可以回帖 登錄 | 註冊

本版積分規則

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-11-23 08:21

快速回復 返回頂部 返回列表