倍可親

回復: 0
列印 上一主題 下一主題

「表情機器人」上電視,腐國觀眾紛紛表示:這啥玩意?快拿走!

[複製鏈接]

6224

主題

1萬

帖子

3萬

積分

貝殼精神領袖

Rank: 6Rank: 6

積分
30731
跳轉到指定樓層
樓主
瘋瘋顛顛 發表於 2017-7-26 11:30 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
  2017-07-25 22:12

  作者:空氣鳳梨頭很大

  編輯:Calo

  最近,登上「早安英國」(英國電視台ITV一檔晨間節目)的機器人Sophia引起了網友熱議。主持人和一眾網友紛紛在推特上評論Sophia十分怪異嚇人。

  

  Sophia做客英國電視節目。圖片來源:Good Morning Britain/ITV

  

  節目主持之一皮爾斯·摩根在推特上評論:「奇怪……非常,非常奇怪。」圖片來源:twitter.com

  Sophia到底做錯了什麼,以至於獲得腐國上上下下的一致嫌棄?

  

  「什麼值得懂」是果殼網旗下一個新的欄目。我們致力於用解釋性新聞的方式,幫大家梳理時事熱點,看清它們的來龍去脈。

  坐穩了嗎?我們開始咯~~

  這一期我們的主題是:人臉機器人怎麼看起來那麼可怕?

  Sophia是什麼?

  Sophia,美國公司Hanson Robotics設計研發的表情機器人,外表以奧黛麗•赫本和創始人大衛•漢森(David Hanson)妻子為原型[1]。它眼睛里安裝的攝影機使其可以識別人臉和辨別人類的表情變化,進而在與人互動中做出相應的表情。Sophia能模擬出多達62種人類表情, 甚至包括臉紅[2]。

  

  Sophia的部分面部表情變化。圖片來源:CNBC

  注視Sophia的神情,你也許已經可以理解網友們的感受:

  

  其實,早在Sophia之前,Hanson Robotics這家致力於製造「能進行教學、服務、娛樂並與人建立深層關係的機器人」的公司就已經研發了不少表情機器人。例如以已故美國科幻小說大師菲利普•K•迪克為原型的機器人和愛因斯坦機器人。它們均能辨識和模仿人類情緒[3]。

  

  「愛因斯坦」機器人。圖片來源 : hansonrobotics.com

  這些表情機器人目前還被用於自閉症兒童的交流並且取得了一定的成果。Hanson Robotics創始人大衛•漢森認為,在不久的將來,機器人能變得有創造力、想象力、共情能力甚至能變得比人類更加睿智。

  除了Hanson Robotics以外,其他機器人公司也相繼研發了能表達情緒的類人型機器人,例如日本機器人公司Kokoro和日本先進工業科技研究院合作研發的Kurokawa機器人,也能做出12種表情[4]。

  

  Kurokawa和Actroid-F機器人。圖片來源:memolition.com

  雖然這些「情緒機器人」都有超高的模擬性,但觀看它們和人互動的視頻常使不少觀看者覺得背脊發涼。

  這股寒意來自哪裡?

  跌入「恐怖谷」的機器人

  一個影響深遠的解釋是,這些情緒機器人的樣子落在了「恐怖谷」 (uncanny valley)內。

  1970年,日本機器人專家森政宏提出了「恐怖谷」理論假設[5],指人類對機器人的好感度會隨著機器人和人的相似度而提高,然而當相似度到達一定程度時,我們的情感反應會突然逆轉為負面,機器人和人的差別會被放大,顯得非常可怖。但隨著相似度的繼續增加,我們的情感反應會由負轉正。在好感度和相似度的關係圖裡,這段數值低谷被稱為「恐怖谷」。

  

  恐怖谷理論示意圖。圖片來源: commons.wikimedia.org

  「恐怖谷」真的存在嗎?

  這個問題在學術界一直存在爭議,部分研究能觀察到恐怖谷現象,但另一些研究卻並沒有發現好感度轉為負向的「低谷」階段,而只觀察到人類的好感度隨著機器人的人類相似度(human likeness)上升而增加[6]。

  在最新的一項研究中,研究者選取了80張現實存在的機器人的照片作為實驗材料,而非此前慣用的人臉/機器人合成圖。實驗參與者需要給每張機器人照片的類人程度以及好感度評分。

  

  實驗中選取的真實機器人圖片。圖片來源:doi.org/10.1016/j.cognition.2015.09.008

  結果表明,隨著機器人的人類相似度上升,人們對機器人的好感度先上升,再轉向負面,最後攀升回高好感度,與恐怖谷理論吻合 [7]。

  

  實驗結果:橫軸為機器-人類分值(即類人程度),縱軸為好感度。實驗結果表明,隨著機器人的類人程度上升,好感度先上升再陷入低谷,最後回升。擬合曲線和恐怖谷理論描述的趨勢一致。圖片來源:doi.org/10.1016/j.cognition.2015.09.008

  但,為什麼會有「恐怖谷」?

  近年來,隨著電腦動畫技術和AI技術的發展,恐怖谷理論逐漸成為科學界的關注熱點。但關於為什麼會出現恐怖谷現象,科學界對此也未有定論。目前,針對恐怖谷現象的解釋,心理學和人機交互學提出了以下幾種理論。

  範疇模糊理論

  (categorization ambiguity)

  觀察者對觀察對象的範疇認知會影響他對觀察對象的感知,這種現象在心理學中被稱為「範疇感知(categorical perception)」。不管機器人的樣子有多不同,它們總能被歸入「人類」或「非人類」這兩個範疇之一,因此人們可以準確歸類機器人。

  範疇模糊理論認為,類人型機器人落在了「人類」和「非人類」範疇界限之間,人們判斷它們屬於哪個範疇的能力大大下降,從而引起人們對類人型機器人的負面情緒。

  2013年,蘇黎世大學教授Cheetham和Jancke讓人們判斷一系列合成的面孔照片是否屬於人類 [8],發現範疇模糊現象的確存在,然而,隨後的實驗探究這種感知困難是否和負面情緒相關聯,均沒有得到陽性結果。也就是說,範疇理論並沒有很好地解釋恐怖谷現象。

  

  研究者利用真實人臉和電腦頭像人臉(avatar face)合成照片,通過調整兩者比例得出一系列和真人相似度不同的臉部照片,再要求被試辨識照片屬於「人」還是「非人」。結果顯示,兩者比例接近時,被試判斷用時最長。圖片來源:doi: 10.3791/4375

  感知不協調理論

  (perceptual mismatch)

  感知不協調理論則認為,認知程度的不協調可引起負面情緒,如一張很真實的人臉上突然有一雙死魚眼。 有研究[6]發現,當臉部和眼睛的類人程度不一致,或給真人臉部配上一雙人工放大的眼睛,都能引起強烈的負面情緒。

  

  將人像眼睛依不同比例放大的實驗圖。圖片來源:doi.org/10.1016/j.chb.2008.12.026

  另一個實驗則發現,當臉部和聲音不協調時(例如機器人的臉部搭配真人的聲音,或真人的臉部搭配合成的聲音),人們會有最強的負面情緒[6]。不過,上述理論針對的主要都是高模擬外錶帶來的影響。像Sophia這樣能夠模擬情感反應的機器人所引起的恐怖感覺,又是否僅因為它們的外表像人呢?

  心靈感知理論

  (mind perception)

  最新的一派科學家提出了「心靈的恐怖谷」(uncanny valley of mind)的概念。這些持有心靈感知理論的學者認為,機器之所以變得恐怖,是因為它們的外表暗示了它們和人一樣,有感覺和感受。

  在大部分人的世界觀里,人的特點是擁有「心靈」,而人類和機器的分別就在於是否有情緒和感覺。因此,心靈感知理論假設當一個類人型的機器被感知到是有情緒和感覺時,人們對機器人的心理預期被打破,新的認知和舊的認知出現衝突,他們就會出現認知失調(cognitive dissonance),從而產生緊張、厭惡和恐懼等負面感情反應。

  在德國開姆尼茨工業大學教授楊•斯坦(Jan Stein)和彼得•奧勒(Peter Ohler)的實驗中,被試們用虛擬現實(virtual reality, VR)觀看兩個人對話的3D錄像。錄像中兩個角色評論了天氣,女人表達了沒有空閑時間的沮喪,男人對女人的煩躁和沮喪表達了同情。一半的被試被告知這兩個人物是有人類控制的,而另一半被告知人物是由電腦控制的。在這兩組裡面,又分別有一半人被告知對話是念稿的,一半被試則被告知對話是即興的。結果那些認為他們看了兩個電腦即興對話的被試們感到了比其餘三組都要高的詭異感。

  

  實驗被試在虛擬現實中觀看這一場景並評判厭惡程度。圖片來源:J.-P.Stein, P. Ohler., Cognition 160

  在這個實驗中,虛擬人物的外貌是不變的,改變的對象只有人們對它們的認知。這表明了不管機器人的外表是否像人,當機器自發地表達出情緒時,恐怖谷現象就會出現。對此,楊•斯坦和彼得•奧勒提出了「」人類獨特性威脅假說(threats to human distinctiveness hypothesis)——我們普遍認為人類的特性在於擁有心靈(靈魂),而當機器表現出擁有和人一樣的心靈時,人們會覺得人類的獨特性受到了威脅,因而產生厭惡情緒[9]。

  由此可見,不管機器人的樣子有多像人類,它們的情緒反應有多真實,一旦我們知道了它們非我族類,還是有可能出現毛骨悚然的感覺。

  機器人能走出恐怖谷嗎?

  Sophia機器人的研發者大衛•漢森也承認恐怖谷現象的存在。但他相信,有很多的審美因素影響了人們對機器人的感覺,而找到那個恐怖和討人喜歡之間的平衡點,就能創造出能和人類建立情感聯繫的機器人[10] 。

  不過,如果人們確實是因為感知到機器人有心靈而產生恐懼,或許那個審美上的平衡點就不存在了。

  正如最早提出心靈感知理論的心理學家科特•格雷(Kurt Gray)在論文的最後總結道:「我們很樂意機器人為我們工作,但卻不會希望機器人能有感情。」 [11]

  

 

世人皆醉我獨醒
您需要登錄后才可以回帖 登錄 | 註冊

本版積分規則

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2024-4-28 10:32

快速回復 返回頂部 返回列表