倍可親

從深度學習到深度造假,人工智慧開始玩殘人類

作者:解濱  於 2019-4-20 11:37 發表於 最熱鬧的華人社交網路--貝殼村

作者分類:高談闊論|通用分類:文史雜談|已有14評論




從深度學習到深度造假,人工智慧開始玩殘人類

解濱  CISSP, CISA

人工智慧(AI)是不是可以用來殺人?這個問題最近有了答案。答案是:AI不但可以用來殺人,而且殺人的辦法都找好了。

我經常寫點「動態分析」之類的「小報告」,作為 cybersecurity threat intelligence briefing 的一部分。通常我也就是寫點黑客小打小鬧那一類的事。上個星期我講的那件事跟人工智慧有關,是一起最近在醫學界和信息世界發生的大事。人類第一次把人工智慧(AI)直接進行一項臨床試驗,沒有事先做動物試驗。而這項試驗不是檢驗某項新葯或新技術的療效,而是證明某項新技術可以用來殺人。此事千真萬確。

這項新技術說出來大家並不陌生,這就是「Deep Learning」,也就是AI中的「深度學習」的意思。你以為這項試驗是深度學習如何去治病嗎?錯!恰恰相反,這是深度學習如何去造假,讓醫生出錯,以至於通過醫生的手把病人給殺了。聽上去這是很壞的一件事,但這也是人工智慧(AI)的一個新的應用。

這個新技術的概念不難理解。各位都知道,如今在醫院裡使用的MRI和CT都是計算機3D成像,靠計算機把2D掃描結果合成為3D圖像。要讀懂這些3D圖像,需要牢固紮實的專業知識和豐富的臨床經驗,任何疏忽都有可能導致誤診或漏珍,可能造成病人死亡。所以呢,十幾年前就有專家們苦思冥想,試圖依靠AI 來輔助讀片,以提高精準率,減少誤讀。這方面已經大有斬獲,例如這一篇去年發表的論文

:https://www.ncbi.nlm.nih.gov/pubmed/29777175。雖然進展可觀,但那距離真正的臨床普及應用還有相當的距離。N年前我給老東家MD安德森打工時曾經做過針對IBM Watson(IBM設計製造的一種智能機器)在醫學上應用的系統的信息安全評估。那個投資十億美元的玩意兒直到今天也還基本上在扯淡。

或許是受到來自某種邪惡勢力的靈感的啟發,有人轉而一想,瑪的老子辛辛苦苦幹點正事總是不成,那乾脆整點歪門邪道好了。說做就做!在使用AI輔助診斷還起色不大的同時,用AI在醫學領域進行搗亂破壞的研究卻風生水起,進展迅猛。這不,就在2019年4月3日,一篇驚世駭俗的論文出籠了。三名以色列的研究人員應用AI中的一個重要演演算法「深度學習」,成功地訓練了一組惡意代碼去偷看醫院放射科網路(PACS - 圖片存檔和通信系統)中的新生成的MRI或CT圖像。如果在圖像中顯示病人根本就木有患癌症,這惡意代碼就自作主張地弄個癌症放到那圖像中去。那麼如果那些初始圖像表明病人已經患了癌症呢?這一組惡意代碼就自動地、神不知鬼不覺地把癌症從圖像中給抹去。這樣一來,本來沒啥事的病人,被醫生診斷為身患癌症,然後開始進行昂貴和痛苦的治療,去治癒那根本就不存在的癌症。而那些已經患有癌症的病人,會被醫生診斷為「十分健康」,而不採取任何治療措施,直至他們一命嗚呼。

這不是害人嗎?這豈止是害人,簡直是傷天害理!

這一劃時代的研究成果於4月3日發表在一個學術期刊上,其鏈接在這裡:

https://arxiv.org/pdf/1901.03597.pdf

這三位以色列學者治學十分嚴謹。他們把接受試驗的專家們分為兩組。第一組專家,讓他們看的圖像包括造假過的圖像和沒有經過造假的圖像,不告訴這一組經驗豐富的放射專家這些圖像已經魚龍混雜了。結果是,對於那些被植入虛假癌症的圖像,專家們被欺詐的比例是99.2%。對於那些癌症被抹去的圖像,欺詐成功率是95.8% (the attack had an average success rate of 99.2% for cancer injection and 95.8% for cancer removal)。另一組具有同樣資歷的專家們,他們被事先告知他們閱讀的圖像中有些已經被造假,然後讓他們去從那些魚龍混雜的圖像中鑒別真偽。結果呢?那些專家們也是蒙查查,大體上還是無法有效地識別那些假貨,儘管他們個個都是讀片高手[knowledge of the attack did not significantly affect cancer removal (90% from 95.8%). However, the success of the cancer injection was affected (70% from 99.2%).]。

因為事先知道有假,有的專家們還使用了他們的AI軟體進行輔助讀片。結果這些AI讀片軟體也被同樣是使用AI技術的造假代碼給懵了:無法識別出那些深度造假的圖像,其效率甚至還不如人工!

好的AI居然被壞的AI給打敗了!什麼叫邪門呢?這就是!

這件事情很快就在美國醫學界的許多IT工作者中掀起軒然大波。如果這樣的惡意代碼被植入各大醫院的放射科網路,那麼就意味著將會有成千上萬,甚至上百萬的病人被誤診,乃至於死亡。這豈止是惡意代碼,這簡直就是一場大規模惡意屠殺!

至此,AI開創了一個令人不敢想象的新的功能:玩殘人類。

人工智慧(AI)的起源,可以追朔到希臘古代的神話傳說中,技藝高超的工匠可以人工造人,並為其賦予智能或意識。用金屬打造一個人型機器並不難,難的是給這個機器人安裝一個具有人類智慧的大腦。上個世紀40年計算機的發明使一批科學家開始嚴肅地探討構造一個電子大腦的可能性。八十年代,AI蓬勃發展,但課題局限在人機對話,翻譯語言,圖像解釋,機器推理等方面。當年有些課題早已完成。我們今天使用的谷歌翻譯以及各種翻譯機就是其中一例,其中「深度學習」是關鍵演演算法之一。過去十年中,得益於大數據和計算機技術的快速發展,AI日趨成熟,開始滲透到越來越多的領域,如生態學模型訓練、經濟數據分析、疾病預測、新葯研發等。其中一個重要的領域「深度學習」極大地推動了圖像和視頻處理、文本分析、語音識別等問題的研究進程。

就跟人類的任何發明既可以造福於人類也可以用於危害人類那樣,或早或晚,或多或少, 新的技術不可避免地會被應用到不道德甚至罪惡的領域。炸藥被用來製造殺人的槍炮, 核能被首先用來製造殺人的原子彈,化工產品被用於製造化學武器,計算機代碼被用來製造計算機病毒,這都是典型的例子。但把AI用於犯罪,一直到兩年前還是僅限於紙上談兵,沒有任何設計方案出籠。一年半以前,一個劃時代的歷史性轉折終於到來,發生在您無法想象的一個領域。

在2017年12月的某一天,在一個叫做「Reddit」的網站上,一個匿名作者上載了一個色情視頻,這個視頻的女主角是Daisy Ridley,她是知名的英國影視演員,《星球大戰》的女主角。幾個小時后這個色情視頻就在網上炸開了鍋。人們幾乎不相信這位馳名歐美影壇的正妹居然會出演一個A片。但沒有誰可以看出這個A片是偽造的,裡面的女主角無論是聲音還是造型或表情都跟Daisy Ridley一模一樣,讓人無可挑剔 - 就是她!驚恐之餘,當人們看了這個視頻的作者的筆名后,都會心地笑了:「Deepfakes」。這個筆名是「深度造假」的意思。這是從「Deep Learning」(深度學習)衍生過來的一個新詞。這個以假亂真的視頻的製作,就是充分使用了「深度學習」的一個新演演算法。雖然這一造假技術到了爐火純青的水準,但由於其「產品」畢竟還是個假貨,所以作者還算有點良心,把筆名冠之以「深度造假」。

上面這是Daisy Ridley在《星球大戰》里的劇照

這是假的Daisy Ridley在那個色情片中一開始做自我介紹

幾個星期後,「Deepfakes」這個新詞便風靡歐美色情影視產業。為了滿足各位「愛好者」的需求,一個月後第一個根據這個造假術設計的造假軟體「FakeApp」正式出版。這大大降低了deepfake的使用門檻。這個軟體讓用戶很輕鬆地自製換臉視頻,即使你沒有任何人工智慧方面的知識。歐美的知名影視明星和歌星,例如Emma Watson, Katy Perry, Taylor Swift,Scarlett Johansson,統統都被色情技術控們使用深度造假的技術搬上了A片,「消費者」們直呼過癮,爭相先睹為快,一時間好評如潮。

這是Kety Perry被用「Deepfakes」造假的畫面

 不久一批深度造假色情網站如雨後春筍般建立起來。每當「消費者」們質疑那些深度造假的視頻的真實性時,網站站主們都捶胸頓足地表示其來源「絕對可靠」,「這是那些大V們手下的技工們偷拍,然後不小心泄漏出來,本網站忍痛花重金購買,廉價呈現給各位,賠本賺吆喝」云云。與此同時,傳統的色情網站門庭冷落。正牌的,循規蹈矩的色情網站受到Deepfake video的嚴重威脅,生意驟減,老牌色棍們對於這一波利用最新AI技術造假之輩嗤之以鼻,痛斥其之為「new breed of sexual abuse」。老牌色情網站紛紛聯合起來抵制那些Deepfake videos,以保證A片的「純潔性和真實性」。甚至就連那些跟色情視頻八杆子打不到半點關係的大牌社交網站如推特、臉書也開始加盟抵制 Deepfake videos。


一年多過去了,人們對於 Deepfake video的新鮮勁大不如前(是不是能造假的臉都被造光了?)。然而人們對於 Deepfakes 這件事本身的熱情卻日漸高漲。根據本人的觀察,幾乎在所有的深度學習可以涉足的領域,深度造假都可以大顯身手,有時甚至可以青出於藍。本文一開始講的這件事就是一個很好的例子。當deep learning在醫學輔助診斷方面還在一籌莫展的時候, deepfakes 在醫學領域裡已經紅杏出牆,花枝招展了!

說起來確實有點尷尬,AI的這項重大突破居然來自於一個骯髒的、令人不齒的角落。但那不過是深度學習的一個應用,其演演算法都是一樣的。一樣技術,只有用起來才能發展和改進。誰說壞的初衷就一定不可能帶來好的結果呢?

Deepfakes這一技術即可用來做好事也可用來做壞事。這一技術可以讓那些因ALS(肌萎縮側索硬化)或癌症等疾病失去聲音的人恢復演講。自動駕駛軟體首先可以在虛擬環境中接受培訓。好萊塢可以用這種技術攝製高度驚險或美若仙境的大片,而不用擔心高昂的成本。一些已經過世的知名演員如麥克傑克遜可以被重新搬上銀幕,唱出新歌。這種技術使用在人機對話里,可以逼真地模仿某位知名人士的語音回答用戶的問題。壞人可以用Deepfakes 偽造視頻,製造假癌症和隱瞞真癌症,打造出以假亂真的新聞圖片和視頻新聞,塗改谷歌地圖,把拿電子顯微鏡圖片給修改掉,甚至把GPS的數據給塗改掉。騙子和政治極端分子將使用這種深度學習演演算法生成數不清的虛假信息(例如偽造某位政治人物的性醜聞,私房話,「通俄」錄音等等)。通常社交網路有選擇地傳播最吸引眼球的內容,這些深度造假系統輸出的內容將演變為最受歡迎的,並被廣泛分享出去。實際上,很多種新的Deepfakes造假產品可能已經被研發出來了,只是你我還不知道而已。或許在明年的大選中就會有一批「新產品」面世。

說到這裡,您是不是想知道究竟什麼是「深度學習」呢?請注意本文前面引用的那篇論文的標題是:「CT-GAN: Malicious Tampering of 3D Medical Imagery using Deep Learning」。這裡的第一個關鍵詞是「GAN」,這是Generative Adversarial Network的縮寫。這個演演算法是深度學習領域裡革命性的突破。這是GAN之父Ian Goodfellow 於2014年發明的。GAN翻譯成中文就是「對抗生成網路。」

GAN

GAN 是AI裡面「非監督式學習」的一種演演算法,其基本原理是它有兩個模型:一個生成網路G(Generator),一個判別網路D(Discriminator)。判別網路的任務是判斷生成網給定圖像是否看起來『自然』,換句話說,是否像是人為(機器)生成的。而生成網路的任務是,生成看起來『自然』的圖像,要求與原始數據分佈儘可能一致。為了便於您對GAN的過程做一個簡要的了解,我虛構了下面這段不大恰當的對話來簡要地示範一下:

太太:喂,老公,你看我長的像不像范冰冰?
老公:滾!
太太:老公你又在外面泡上哪個妞了,幹嘛對我這麼凶嘛?
老公:我誰都沒有泡。不是我打擊你的積極性,太太你實在不像范冰冰,差太遠了。當然,儘管如此,你老公我也是愛你的,誰叫你老公這麼沒用,不是那個誰呢?
太太:哼!那我整容去!

三個月後,鼻樑整容好了。

太太:老公,現在我像不像范冰冰了?
老公:有進步但還有差距。就說你下巴,有范冰冰的下巴那麼尖嗎?跟一盤豬頭肉似的。
太太:哼!

六個月後,下巴整容好了。

太太:老公你看,現在我跟范冰冰一模一樣了吧?
老公:不行不行,橫看豎看總覺得哪裡就是不一樣,我也說不出來。
太太:那你去好好看看范冰冰到底長的是啥樣子嘛。
老公剛想敷衍,突然看見一則新聞:「我漂亮嗎?美國臉盲男子不吭聲被妻暴揍」,頓時嚇出一身冷汗,怕自己臉盲被太太大人揍扁,於是趕緊下載了范冰冰的兩個視頻看了N遍,終於發現了太太的臉究竟為什麼咋整都整不成范冰冰,然後跟太太提出了專家級的指導意見。

經過反反覆復多次這樣「校正」,終於在做完最後一個手術后的某一天,老公把太太一把抱在懷裡:「太太我愛S你了」

……

上面這個過程,就是一個 GAN 訓練的過程(大體就是這樣,很多細節忽略了哈)。在這個虛擬的訓練過程中,「太太」就是生成網路,「老公」就是判別網路。生成網路的目的是造樣本,它的目的就是使得自己造樣本的能力儘可能強,強到什麼程度呢,你判別網路沒法判斷我是真樣本還是假樣本。判別網路的目的就是來識別一個樣本,看看它是來自真樣本集還是假樣本集。生成網路從潛在空間(latent space)中隨機採樣作為輸入,其輸出結果需要盡量模仿訓練集中的真實樣本(「范冰冰」)。判別網路的輸入則為真實樣本或生成網路的輸出,其目的是將生成網路的輸出從真實樣本(真的范冰冰的玉照和視頻)中儘可能分辨出來。而生成網路則要儘可能地欺騙判別網路(不斷整容)。兩個網路相互對抗、不斷調整參數,最終目的是使判別網路無法判斷生成網路的輸出結果是否真實(太太整容整的跟真的范冰冰一模一樣了)。

GANfather Ian Goodfellow

這個例子里,太太每整容一次,就相當於生成網每生成一個新的樣本。老公作為判別網就判別一次,說那還不行。生成網路就不服了,說別瞧不起我,我也很牛叉,不信我再生成一個假樣本給你看看。於是太太就再次整容,巧妙地包裝,非要讓老公(判別網)無法判斷我是真范冰冰還是假范冰冰。就這樣反覆循環,直到最後判別不出區別來了。這叫「納什平衡」(Nash equilibrium)。

在這個演演算法中,生成網跟判別網的目的是相反的:一個說我火眼金睛,能夠判別你的真假;另一個說我魔高一丈,偏要讓你判別不出真假。但判別網路也不是白吃乾飯的,也在不斷改進(上網下載范冰冰的視頻做參照)。

GAN的強大之處就在於它模擬了真實世界中的過程。這種過程在真實世界中也是最優化的。無論你用它來進行模擬還是造假,這都是到目前為止最厲害的演演算法。


GAN的簡要示意圖

讀者或許一開始閱讀本文時就有一個大大的問號:那三個以色列學者是不是吃飽飯撐的,沒事幹居然去研究如何使用AI作案,幹嘛不去做點正經八百的好事?這傷天害理的事情居然可以作為學術論文發表,給網上的壞蛋們通風報信。有人報案了嗎?那三個傢伙被抓起來了嗎?那篇論文被撤了嗎?我的答案是:那三位學者用他們的研究成果可能救了成千上萬病人的命!利用AI作案,危害人類,這只是早晚的事。與其坐等壞人暗中發展AI武器,還不如及早把AI可能作案的途徑都給找出來,及早預防。筆者至今還清楚地記得,2000年5月5日那一天, Love Bug worm在全球爆發,把人類打了個措手不及,導致五千萬電腦里的文件被刪除,成千上萬個公司停產的那個場面。愛因斯坦在導出E = mc2這個公式后意識到原子彈的威力,他立即寫信給羅斯福,提醒納粹製造原子彈的可能性,建議美國趕在納粹之前造出原子彈。幸虧愛因斯坦的提醒,盟軍及時炸毀了納粹的核試驗裝置。不然的話,人類歷史將不會是今天這樣。我們或許就不可能出生,或許在做法西斯佔領軍奴役下的亡國奴。

實際上,識別或防止深度造假的技術已經被發展出來,但要根據不同的種類採用不同的辦法。識別Deepfake videos (深度造假視頻),有一個訣竅,就是觀察眨眼。人類一般每兩秒到十秒之間要眨眼至少一次,而且是有規律的。但在深度造假的過程中,對眨眼的鏡頭是不進行深度學習的。這就造成那些深度造假視頻裡面的「假人」幾乎不進行正常的眨眼。根據這個,設計一個程序,捕捉眨眼的瞬間,計算一下,就可以發現貓膩。這個方法是紐約大學奧本尼分校的三位華人學者發現的,這是他們的論文的鏈接:https://arxiv.org/pdf/1806.02877.pdf 。至於如何防止那三個以色列專家發明的方法對醫學圖像深度造假,其技術都已經是現成的,這就是「深度加密」:(1) 給每一個原始圖像進行電子簽名(digital signature)以防篡改,(2) 把放射科的網路統統給加密(end-to-end encryption), 以防偷看。完事。要防止衛星地圖被非法篡改,可以使用同樣的辦法。不久的將來,視頻和圖片生成后,大多會進行電子簽名和加密。誰先發明了能夠放篡改和防造假的機器,誰就佔領了先期市場。

雖然牛津字典還沒有收入「Deepfakes」這個新詞,雖然「Deepfakes」這個詞在本文發布之前還沒有被正式翻譯成中文,但深度造假的概念實際上已經開始深入人心。估計半年後谷歌翻譯就會把Deepfakes翻成「深度造假。」 現在有人將其翻譯成「AI變臉」,這是不精確的。因為Deepfakes 應用的範圍遠不止變臉。

美國民主黨有一個2020總統大選候選人(據說還是個「華人」),他認為人工智慧(AI)終將導致大批工人失業,所以聯邦政府應該發給每一個美國人每年1萬2千美元的「universal basic income。」 楊總統把AI想得太簡單了。

是的,AI確實可能導致某些人失業,但也將帶來很多的就業機會呀!
不錯,AI確實可以幫助人類解決許多難題,但也可能給人類帶來新的危機。
對的,AI可以用來給人類看病,但也可以被用來殺人。
結論:AI可以用來干很多好事,也可以用來干很多壞事。並非只會讓工人失業。

建議楊總統在兜售他的「AI造成大規模失業」這一理論之前花個至少半天的時間跟一位叫吳恩達(Andrew Ng)的華人專家好好請教一下究竟什麼是AI,AI對我們社會今後的發展將會有哪些影響,等等。不要不懂裝懂。

華人AI大牛吳恩達 Andrew Ng (不是Andrew Yang 的兄弟) 

看看AI對於美國色情工業的大舉入侵,那導致誰失業了嗎?就說這三個以色列研究人員在Deepfakes的醫學方面的最新應用,會導致誰失業嗎?我怎麼覺得剛好相反,job更加穩定了!

那麼如何提前防止人類使用AI殺人呢?我們知道,在生物技術發展方面,各國都建立了道德委員會,設立了許多「禁區」,不許科學家們涉足。但在AI的發展方面,現在全世界沒有任何一個道德委員會,今後也不會有。為什麼會是這樣呢?因為生物技術需要高額的投資和嚴格的工作場合,還有高度專業的技術。你沒法在車庫裡進行克隆人的實驗,普通人玩不起。但AI沒有這些條件限制,任何一個高中生都可以在自家車庫裡用老爸算稅的電腦來進行深度造假,低投資高效益(當然那個電腦必須有一個高級一點的GPU哈,不要跟我那台電腦上的那樣濫)。人類可能沒有任何東西能阻止即將到來的人工智慧生成的內容。人工智慧是把雙刃劍。隨著它的改進,它將能夠模仿人類的行為。最終,它會變得和人非常像:善與惡的能力不相上下。

常言道,耳聽為虛,眼見為實。美國人常說:The cameras don』t lie。有了Deepfakes,這兩句話都不再生效了。AI已經把「眼見為實」打得沒有招架之力了。

聖塔克拉拉大學法學院教授 Eric Goldman 說,我們最好為一個真假難辨的世界早做準備,但事實上,我們已經身處在這樣一個世界中了。

理論物理學家霍金(Stephen Hawking)在五年前說過,人工智慧目前的初步階段已經證明非常有用。但他擔心創造出媲美人類甚至超過人類的東西將要面對的後果。「它可能自行啟動,以不斷加快的速度重新設計自己。而人類局限於緩慢的生物進化過程,根本無法競爭,最終將被超越。」 「人工智慧的崛起是人類歷史上最好的事情,也有可能是最糟糕的。」 他認為,「人工智慧也有可能是人類文明史的終結,除非我們學會如何避免危險。」

把這一席話翻成通俗文字就是:人腦可以玩電腦,或許有一天,電腦也可以玩人腦,搞不好甚至玩殘人腦,乃至於玩殘人類!這就要看我們怎麼玩了,嘿嘿。

這一天是不是已經開始了?

最後我鄭重聲明一下,本文的寫作全部靠筆者的手工和人腦完成,沒有使用任何AI,電腦只是用來閱讀相關論文和打字的,不負責思維。要轉載本文請聯絡本人:bxie1@yahoo.com。


高興

感動

同情

搞笑

難過

拍磚

支持
5

鮮花

剛表態過的朋友 (5 人)

發表評論 評論 (14 個評論)

回復 supercnm 2019-4-20 14:14
好文,謝謝。我覺得AI的一個大問題是, AI自己生成的演演算法,人類理解不了。比如圍棋世界冠軍們扎堆在一起也沒搞明白Alpha Go當初是怎麼贏的他們。未來,用AI來對抗另一個AI,可能是人類唯一的出路?
回復 鬍子太長了 2019-4-20 17:34
科學技術的致命缺點就是它的兩面性,在給於人類巨大的利益的同時,必然具備著同等的破壞力,最終的結局是越來越少數的人,掌握著整個人類的命運,比如核子技術和核子武器。而人類的命運越來越脆弱和被操縱。良性的結局可能只有30%,甚至更低。AI技術的危害性,將在其給於人類最初的蜜糖之後,迅速反噬,人類面臨的是被奴役被圈養的命運。根源在於人類中那些極少數高智商人的貪慾和無良知底線,當他們把他們人性中得惡性因子,編碼輸入AI 系統中的那時刻,即啟動了毀滅人類未來的程序。
回復 專治蛋疼2 2019-4-20 21:01
關鍵還是人的問題。AI技術目前還是有人類指令的,學「好」、學「壞」都是人的「好」與「壞」。
但是同意一點,防患於未然,不要想計算機病毒一樣,有了病毒才想辦法反病毒
回復 Kalco 2019-4-21 00:18
重磅好文!贊一個!
回復 海外思華 2019-4-21 02:06
如果是這樣的結果,那可就太悲慘了,人類自己把自己給放在了自絕的路上!   
回復 亦云 2019-4-21 03:40
海外思華: 如果是這樣的結果,那可就太悲慘了,人類自己把自己給放在了自絕的路上!    
人類最終滅絕毀滅十有八九是來自於人類對科技的不利面的失控導致的。當下全球氣候反常已經初露端倪了
回復 8288 2019-4-21 07:53
只要一停電再厲害也死翹翹了
回復 8288 2019-4-21 07:53
鬍子太長了: 科學技術的致命缺點就是它的兩面性,在給於人類巨大的利益的同時,必然具備著同等的破壞力,最終的結局是越來越少數的人,掌握著整個人類的命運,比如核子技術和
停電解決一切
回復 鬍子太長了 2019-4-21 08:06
8288: 停電解決一切
AI 上來,抓你個現行:破壞AI 社會生命資源,估計得無期以上刑期
回復 8288 2019-4-21 09:54
鬍子太長了: AI 上來,抓你個現行:破壞AI 社會生命資源,估計得無期以上刑期
沒電查不到
回復 鬍子太長了 2019-4-21 11:51
8288: 沒電查不到
AI 又不是電線穿起來的,它們走路,曬太陽,擁抱,握手,撓痒痒,都能自己補充能量。你跑不掉的
回復 8288 2019-4-21 12:09
鬍子太長了: AI 又不是電線穿起來的,它們走路,曬太陽,擁抱,握手,撓痒痒,都能自己補充能量。你跑不掉的
把電源線剪了再倒幾桶水
回復 鬍子太長了 2019-4-21 14:24
8288: 把電源線剪了再倒幾桶水
它們腦子(計算速度)和行動能力,比你快得多呀,從您帶有殺氣的眼神里就知道防你,還會給你機會澆花 ,總之,你做什麼都要考慮,科學人設計AI,是要超越人的各種能力的,只要把自我學習和自主生存的能力設計出來,再被灌入自我保護,自我修復,相互修復的獨立思考學習能力,它就會相互交連信息,組成AI 社會集團。想一想將來戰場上大規模使用機器人的場景,一方的要互聯互助,消滅對方,不僅是對方的AI機器,更重要的是殺傷對方操縱人,及生產者,設計團隊, ai能避免植入殺人的程序么?因為背後是人類互斗的指使,最終必定延伸到AI 屠殺人類的一步。
現在最高級的SI技術不就是用在軍事上殺人么?AI仿生模擬達到亂真的程度時,敵對的人類,無差別的相互殺戮,不是沒有可能,而是幾乎必然,除非人類全部改邪歸正,不起爭鬥,信仰終極的和平宗教。
就現在這樣的水平,已經有很多人與AI 機器人結婚了,將來真的作出高智商的時候,至少會慢慢替代人類的。即使很小的程序紊亂,都不是你拿遙控器或人力可以拔電,潑水控制的,埃航波音MAX 就是軟體潛在的BUG 發作導致機毀人亡,機長都控制不了,何況將來,大面積AI 溶於社會時,總有一些負面人類,甚至出於鬥爭的目的,設計毀人的程序。這根本就不是聯合國寫個協議可以解決的。人類基因改造原則都有,擋住那個強國人了么?他還自以為創造了人類歷史呢。
這幾乎不用懷疑。
回復 看熱鬧和看門道 2019-5-10 23:05
從來就不懷疑這個世界美好的東西可以變得邪惡。當計算機系統出來后,它的效率和複製能力就解放了人類。但人類的過錯,或者人類的邪惡就可以讓電腦以同樣的效率來複制邪惡。計算機病毒只不過是很小的過失或者惡作劇而已。現在的電腦監控和網軍,其實就是大規模作惡的開始。都不用到AI的級別,通過網震病毒可以摧毀離心機,同樣也可以讓核電站爆炸,讓電網毀滅,讓醫院的救人機器變成殺人機器。隨著更大的數據集成和數據挖掘,人類可以輕而易舉地通過基因工程製造超級生物病毒,可以讓全世界的糧食作物在某一個特定的時間顆粒無收,可以做到更多更強的破壞。歸根結底,不是AI的問題,而是人類自身的邪惡和貪婪的問題。這兩個問題沒有解決,更好的切肉刀可以變成殺人刀。利益的衝突,文明的衝突,意識形態的衝突,都隨時可以把人類自己當成獵物而毀滅,還需要AI們來深度學習解決嗎?

facelist doodle 塗鴉板

您需要登錄后才可以評論 登錄 | 註冊

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2019-6-18 08:34

返回頂部