在一次採訪中,Facebook 人工智慧研究機構的負責人建議我們不要再擔心終結者試圖消滅人類——或者至少,我們應該停止在每一篇有關人工智慧的新聞文章中放置終結者的圖片(一項請求視聽俱樂部強烈否認)。上述人工智慧專家是 Yann LeCun,他負責 Facebook 的 FAIR 研究機構。他最近與邊緣關於人們如何看待人工智慧研究,儘管他沒有具體列出任何例子,但他確實指出了諸如以下故事中的「完全歪曲」:這是關於一個差點變成邪惡的 Facebook 聊天機器人的故事

話雖這麼說,LeCun 確實認為人們總體上正在「更加了解」人工智慧的實際情況。 「過去,如果沒有圖片,你就無法在媒體上看到一篇文章。終結者。一直都是終結者, 100%。現在你看到的這種情況越來越少了,這是一件好事。他對此絕對是正確的,因為一些關於人工智慧的文章使用了來自銀翼殺手 2049或者駭客任務,但他更大的論點是,我們距離建造任何接近終結者的東西“還很遠”,所以擔心有人開發出人工智慧會消滅我們所有人是愚蠢的。

LeCun 甚至提出了 AlphaGo,這款 AI 掌握了一款著名的複雜棋盤遊戲,被《人機大戰》稱為「人與機器之間持續戰爭的最新齊射」。一些愚蠢的網站。他說,教人工智慧真正擅長遊戲與製造“在街上跑的智慧機器人”“完全不同”,並補充說“就一般智力而言,我們甚至還沒有接近老鼠。”他也承認,發展人工智慧會帶來“真正的危險”,但“短期甚至中期都不會有危險”。

當然,這一切都是假設 LeCun 本人沒有被惡意人工智慧取代,但這種情況肯定「沒有危險」發生,對吧?