AI錯誤繪製國王的插圖,象徵科技誤解歷史

盡信AI,不如無AI?當智慧機器取代了人類的思考

2024年,一款AI圖像生成器誤將英國中古時代的國王畫成非洲裔,引發全球討論。這起事件揭示AI在重塑歷史與知識時可能產生的偏差。澳洲學者Sarah V. Bentley指出,AI並非像印刷術那樣讓更多人獲得知識,而是透過演算法將海量資料壓縮成「單一答案」,卻可能混雜偏見與錯誤。從黑人國王到女性教宗的「AI幻象」,顯示科技正在重構人類記憶,引發「數位失憶」與判斷力流失的危機。AI帶來便捷的同時,也讓人類越來越依賴機器思考。唯有重拾蘇格拉底式的懷疑精神,意識到「知道自己無知」,我們才能在AI主導的時代保持清醒與智慧。

AI錯誤繪製國王的插圖,象徵科技誤解歷史
倪國緯用AI繪製的插圖,描繪一位中世紀國王驚訝地看著電腦螢幕上被AI錯誤生成的不同膚色國王畫像,象徵科技時代的歷史錯置與知識混亂。

2024年,一個有趣卻也令人啼笑皆非的事件引發全球熱議:知名AI圖像生成器竟將英國中古時代的國王,畫成了膚色黝黑、頭戴皇冠的非洲裔君主。這場現代科技的「烏龍」不僅鬧出了笑話,更意外掀開了人類知識體系的神祕面紗。

從「印刷術」到「AI」:知識如何被改寫?

回顧人類知識的發展史,從最初刻畫於岩壁與骨頭的符號,到古希臘的字母系統,乃至於15世紀古騰堡發明的印刷術,無不改變著人類文明的軌跡。印刷術將知識從「少數菁英」的掌握之中解放出來,推動了文藝復興與科學革命,更為民主化奠定了根基。

然而,今天的AI生成技術,卻展現出截然不同的特性。澳洲學者Sarah V. Bentley指出:生成式AI並非如印刷術般「一人之言,萬人可聞」,而是「千言萬語,歸為一聲」。AI演算法透過海量資料庫進行深度學習,最終產生單一而看似權威的「答案」。這個「唯一答案」,卻未必是真理,而可能是大量偏見、錯誤資訊所拼湊的產物。

當歷史成為演算法的「遊戲」

生成AI技術有趣卻令人擔憂的地方,就在於它不知不覺地改寫了真實世界的歷史與記憶。除了黑人國王,還出現了女性教宗、黑人維京人,甚至將美國開國元勳描繪成各種種族的大熔爐,活脫一場現代版的「時空錯亂」。

乍看之下,這或許只是一場無傷大雅的笑話,但深究起來卻令人不寒而慄。正如Bentley所言,這場由AI所引發的歷史錯亂,直接揭露了「知識的可建構性」。當科技能輕易重構歷史,那麼真實性將何存?權威又從何而來?

AI狂潮下的「數位失憶」

AI對於人類社會的滲透早已深入生活各個角落,從校園到職場,再到醫療現場,不勝枚舉。根據最新調查顯示,86%的大學生用AI完成學習,英國更有20%的醫師使用AI協助診斷病情。這種依賴現象,社會學家稱之為「數位失憶」(Google效應),我們漸漸喪失了記憶與判斷,轉而依靠搜尋工具、AI生成答案。

當AI技術讓我們獲得快速而便捷的答案,卻可能逐漸剝奪我們獨立思考與判斷的能力。正如古人所云:「盡信書則不如無書」,今日或許該重新定義為:「盡信AI,則不如無AI」。

學習蘇格拉底,質疑才是真智慧

Bentley提醒我們,2500年前的希臘哲學家蘇格拉底早已預見:「唯一的真智慧,是知道自己無知。」在資訊爆炸的今日,我們或許掌握了無數訊息,卻可能比以往更不懂得質疑與反思。

當AI以極快的速度主宰人類生活,我們更應該重新思考「何謂知識」。倘若我們不再質疑演算法、不再懷疑機器生成的答案,那麼人類的智慧與判斷,便如同溫水煮青蛙,終將在不知不覺中失去活力。

「知道自己無知」,迎向AI的未來

當AI已經進入「強者愈強」的正向循環,演算法吸納越多資訊便愈加精準,但也越容易形成偏見,甚至可能淪為有意操控的工具。面對AI生成的「知識奇觀」,我們必須學習對科技保持敬畏與謹慎,更要保有清醒的自覺。

AI或許能給予我們快速的答案,卻無法替我們做出正確的判斷;它或許能幫助我們搜尋資訊,卻不能教我們如何反省與思考。若想在AI時代保持真智慧,就該回歸蘇格拉底所倡導的核心:「知道自己無知」,在資訊海洋中不迷航,才能真正主宰自己的人生。

延伸閱讀

Knowing you know nothing in the age of generative AI

我被教授打了個C,卻看透了美國製造業的虛實

當大陸機器人會跳舞、能接客,台灣的科技夢在哪?