電影《人工智能》(2001)劇照。
在新書《這些奇怪的新思維:人工智能如何學會說話以及這意味著什么》(暫譯,These Strange New Minds: How AI Learned to Talk and What It Means)中,神經(jīng)科學家和人工智能研究員克里斯托弗·薩默菲爾德(Christopher Summerfield)追溯了人工智能研究的思想史脈絡,回顧了過去50年內計算機科學嘗試召喚出難以捉摸的人工智能的整個過程,包括其中所經(jīng)歷的那些希望與失敗。
從艾倫·圖靈對“思考機器”的思考到當今尖端的“大型語言模型”,薩默菲爾德將歷史和流行文化中豐富多彩的相關事件編織到哲學、語言學和計算機科學的線索中,通過解釋哪些方法不起作用以及原因,揭示了最新模型的工作原理。這種方法既揭開了 ChatGPT等人工智能最新成果的神秘面紗,又闡明了是什么讓它們取得了如此大的突破。
《這些奇怪的新思維》英文版書封。
薩默菲爾德認為,其中關鍵的飛躍是從嘗試基于世界運作的邏輯模型構建人工智能(“理性主義”方法)到設計通過攝取大量雜亂數(shù)據(jù)進行學習的系統(tǒng)、并從中推斷出模式(“經(jīng)驗主義”方法)。就語言模型而言,這意味著放棄語言學家諾姆·喬姆斯基形式化“通用語法”的項目,轉而尋求將互聯(lián)網(wǎng)上幾乎所有已發(fā)布的文本輸入到日益復雜的預測算法中。
關于人工智能究竟是否擁有生產知識的能力,薩默菲爾德認為人類學習的本質就是預測性,這意味著人工智能知識生產在一定程度上是可以與人類知識媲美的。但談到評估人工智能未來的能力邊界,他仍然相對冷靜,他認為人工智能仍與人類在關鍵方面存在差異?!八鼈儧]有感情、沒有朋友、沒有計劃、沒有身體。它們沒有知覺,我們也不必擔心它們很快就會變得有知覺,更不用說背叛我們、統(tǒng)治世界了?!钡瑫r提醒說,人類的大腦其實也是容易出錯的預測引擎,有可能從混亂的經(jīng)驗數(shù)據(jù)中得出不完美的推論。
如今關于人工智能的討論日趨極化。薩默菲爾德小心翼翼地與這些極端觀點保持距離。他哀嘆,在令人厭煩的派系爭斗中,“人工智能如何運作、未來可能產生何種影響等學術問題往往只是附帶提及”。他的書旨在彌補這一缺陷。有書評認為該書最精彩之處是,它展現(xiàn)了對人工智能能力及其局限性的清醒好奇,而這種好奇在社交媒體爭論中是稀缺的。
在最近接受《出版人周刊》采訪時,薩默菲爾德還談到了人類與人工智能互動的趨勢。“我認為我們將看到根據(jù)個人信念和偏好量身定制的模型。這將是個性化輔助技術發(fā)展不可避免的一部分,所有主要開發(fā)商都在競相打造個性化輔助技術?!钡瑫r表示,這種互動有可能加劇人類和人工智能系統(tǒng)之間的依賴關系,這是需要引起重視的。
參考鏈接:
1.A neuroscientist makes the case that AI can think
www.washingtonpost.com/books/2025/03/17/strange-new-minds-summerfield-review/
2.Where Does AI Go from Here?PW Talks with Christopher Summerfield
www.publishersweekly.com/pw/by-topic/authors/interviews/article/96500-where-does-ai-go-from-here-pw-talks-with-christopher-summerfield.html
編譯/申璐
編輯/荷花
校對/趙琳