倍可親

回復: 0

AI犯錯不可怕 反躬自省糾正它

[複製鏈接]

143

主題

146

帖子

877

積分

貝殼網友七級

Rank: 3Rank: 3

積分
877
ming6288 發表於 2018-10-20 16:12 | 顯示全部樓層 |閱讀模式
本帖最後由 ming6288 於 2018-10-20 22:49 編輯

「人工智慧也是人類的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類提供了在更深的層面反省自己的契機。這次亞馬遜的案例就讓人認識到原來即便在倡導了幾百年男女平權的西方社會,性別歧視問題依然如此嚴峻。」

  眉間尺

  最近,亞馬遜招聘軟體被爆出具有「重男輕女」的傾向,給女性求職者打低分。這一時刷新了人們對人工智慧更加客觀科學的看法。按照亞馬遜研究團隊最初的設想,給招聘軟體輸入100份簡歷,它會吐出前5名,然後公司就可優先僱用他們,這將大大緩解人力資源部門的壓力,結果卻事與願違。

  現在不少大公司或許沒有亞馬遜這般「一攬子」解決選才問題的雄心,但在招聘過程中,通過人工智慧來篩選簡歷、推薦崗位,卻是習以為常的事。在許多招聘者看來,人工智慧可以減少招聘人員主觀意見的影響。但亞馬遜的失敗案例,為越來越多正在尋求自動化招聘流程的大型公司提供了一個教訓。同時,也促使人們反思技術倫理層面的演演算法公平問題。顯然,在亞馬遜的案例中,人工智慧不僅繼承了人類社會的偏見,而且把這種偏見進行了「提純」,使它更加「精準」而「直接」。

  更關鍵的是,人類的偏見經過演演算法「洗地」之後,又披上了貌似客觀公正的「科學技術」的外衣。實際上,在有偏見的數據基礎上訓練出來的系統,也必然是有偏見的。比如,此前就爆出過微軟的聊天機器人Tay,在與網友的廝混中很快就學了滿嘴髒話,以及種族主義的極端言論,在推特上咒罵女權主義者和猶太人。這提醒我們注意,演演算法處理的數據是具有人類社會特點的,發展人工智慧也好,運用演演算法也罷,必須目中有「人」,也就是要充分考慮到作為人工智慧開發者的人類的局限性,以及這種局限性在人工智慧中的「遺傳」。

  有人說,孩子是父母的鏡子。人工智慧也是人類的鏡子。那些不如人意之處,折射的往往都是人性的不完美,也給人類提供了在更深的層面反省自己的契機。這次亞馬遜的案例就讓人認識到原來即便在倡導了幾百年男女平權的西方社會,性別歧視問題依然如此嚴峻。

  人工智慧不可能只在脫離現實人類語境的真空中使用,否則,人工智慧也就失去了它的意義。而在可預計的將來,把人類自身推向完美也不過是美好的夢想。那麼,如何克服人工智慧自我學習中的這些問題,讓不完美的人類創造出接近完美的人工智慧,就成為必須攻克的重要課題。

  其實,以不完美創造完美,正是人類這個物種高明的地方。這一切的實現,不是靠反智的玄想,而是靠不斷地打補丁和修復,在科技進步中克服科技前行產生的漏洞。2017年曾有報道披露,在Google Image上搜索「doctor」,獲得的結果中大部分都是白人男性。這實際上反映了醫生總是與男性相連,護士總是與女性相連的社會現實。後來,通過修改演演算法,基本解決了這一問題。

  進而言之,人工智慧的漏洞被及時發現和得到糾正,有賴於科技政策和機制的進一步規範。在這個問題上,倡導演演算法在一定限度內的透明和可解釋性,不失為可行之策,同時還應加快建立人工智慧犯錯追責機制。比如,日本已經把AI醫療設備定位為輔助醫生進行診斷的設備,規定AI醫療設備出錯,由醫生承擔責任。這一做法是否完全合理,值得探討。但是,提高演演算法問責的意識並將之納入人工智慧發展規劃和頂層設計,確為人工智慧長遠發展並造福於人的必要舉措。
您需要登錄后才可以回帖 登錄 | 註冊

本版積分規則

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2024-3-29 02:34

快速回復 返回頂部 返回列表