跳至內容

人工智慧不會摧毀文明

朋友們

毫無疑問,您已經從新聞中聽到有人預言 AI 將會摧毀文明。就連人工智慧的「教父」Geoffrey Hinton也從 Google 辭職,現在他覺得有必要警告人工智慧的風險。

我最近在波士頓的Bio 2023 講過這個話題。我不想低估最近在ChatGPT 上所展現的人工智能驚人進步。但是,它對文明的威脅在最壞的情況下是微妙的。

然而,我們這些在教學界的人卻擔心 ChatGPT 對教育的影響。它可以就任何主題寫出相當好的論文,儘管錯誤是常見的。然而,它在應付考試方面的成功卻令人驚嘆。ChatGPT 能以90% 的高分通過律師資格考試,ChatGPT4 也能通過各式各樣的標準考試,例如 SAT、AP、GRE,甚至是侍酒師的考試!ChatGPT 等人工智能的這些技能引起了學術作弊和妨礙青少年學習的憂慮。

紐約郵報》的一篇文章總結了這些類型的憂慮:「特斯拉 CEOElon Muskon 周一警告說,即使是對這些複雜機器的 」良性依賴 "也可能威脅到文明。(紐約郵報 2023 年 5 月 2 日)

RE AI 的另一個顧慮是犯罪。犯罪分子非常聰明,他們會利用 AI 詐騙他人。詐騙的一種方式是透過deepfakes。典型的 deepfake 是一個虛假的人聲或視訊影像數位檔案。不法分子利用 deepfakes 詐騙金錢的方式層出不窮。

因此,最新的人工智能技術確實令人不安。然而,有一個領域的人工智能是完全失敗的,而且很可能會持續幾代人:物理體現圖靈測試(Physical Embodied Turing Test)。這項測試主要是挑戰人工智能機器人從有書面指示的套件中組裝像宜家家具這樣的東西。人工智能的發展狀況在這個體系中是如此落後,以至於讓這項任務成為科幻。2019 年,我當時 8 歲的孫子 Nate Su 在 4 小時內組裝出阿波羅太空船 1969 年的零件,見圖 1。沒有任何人工智能可以接近做到這一點。若要讓人工智能成為人類真正的實體威脅,就必須在實體世界的互動方面取得重大進展。

圖 1.八歲的 Nate Su 在四小時內組裝出 1969 年的阿波羅火箭零件。沒有任何人工智能可以接近這項壯舉。

人工智能在實體世界中表現不佳的原因之一就是它們沒有身體。人類與實體世界的互動主要是透過我們的身體以及味覺、觸覺、視覺和聽覺。此外,人類對於物理世界有多年的背景知識,而 AI Robot 則必須學習這些知識。舉例來說,當我寫這篇文章時,我可以看見我的客廳,看到被地毯覆蓋的硬木地板、傢俱、我們的 Mumford 壁爐、電視、電話,等等。這些物品中的每一件都有著悠久的故事。若要讓人工智慧瀏覽我們的實體世界,就需要「學習」這個世界的無數面向。

所以,不要擔心像 M3gan(圖 2.) 這樣的 AI 機器人會出現在地平線上。更讓 AI 界感到謙卑的是 Steven Pinker 的 格言:沒有 AI 可以清空洗碗機。

圖 2.像 Megan 這樣的機器人在未來幾十年內都不會出現。

乾杯

羅恩博士