東西問丨加州理工學院教授:AI永遠是人類的附屬品
中新社北京7月19日電 題:AI永遠是人類的附屬品
——專訪美國加州理工學院電氣工程和計算機科學教授亞瑟·阿布-穆斯塔法
《中國新聞周刊》記者 霍思伊
由ChatGPT和GPT-4引發的“人工智能狂潮”遠比人們預想的持續更久,伴隨而來的爭議與憂慮也在不斷發酵。回歸科學,反思以GPT-4為代表的AI能力的邊界:它能做什么?不能做什么?最重要的是,人類現在必須采取什么行動來實現“有益的AI”?《中國新聞周刊》近日就以上問題專訪美國加州理工學院電氣工程和計算機科學教授亞瑟·阿布-穆斯塔法(Yaser S. Abu-Mostafa)。他是人工智能領域的知名專家,同時也是IEEE神經網絡委員會的創始人之一,曾在多家科技公司擔任機器學習顧問。
現將訪談實錄摘要如下:
AI的應用遠比設計更復雜和危險
記者:此前,埃隆·馬斯克等人簽署了聯名公開信,業內形成了對人工智能發展的兩種截然不同的看法,你更認同哪方?
阿布-穆斯塔法:聯名公開信意圖是好的,但無法起到任何實質效果,因為不會真的有公司遵守并暫停六個月的AI研發。我認為這是對人工智能“過于快速發展”的下意識反應,是沒有經過深思熟慮的行為。我個人不贊同暫停更強大AI模型的研發。現在要做的不是暫停,而是如何更好阻止其“不良使用”。所以我沒有簽署公開信。
如何推動更強有力的人工智能監督?政府需要通過立法對如何“合理地使用”AI進行約束或限制,歐盟《人工智能法案》是一個開始。立法必須經過謹慎考量,而不是短期內出于對人工智能的恐懼或為了應對想象中的風險而匆忙制定。目前為止,我還沒有看到任何提議或法案經過了深思熟慮,并可以得到有效執行。
記者:如何使AI真正符合人類的價值觀和道德準則?
阿布-穆斯塔法:這完全取決于AI系統的開發者和使用者。人工智能沒有內在的道德或惡意,它只是服從命令,做人類訓練它去做的事情。如果人類給它的是充滿偏見的數據,就會誕生一個充滿偏見的AI。因此OpenAI需要不斷調整,選擇一些好的數據或讓ChatGPT不回答惡意問題。但復雜之處在于,即使開發者把整個AI系統設計得很“符合人類價值觀”,仍會有用戶從不同角度使用它,這是開發者控制不了的。因此,AI應用遠比設計更復雜和危險。
人類社會中,好壞標準是不明確的。訓練一個AI下棋,如AlphaGo,規則是明確的,AI經過訓練后很清楚如何界定“好的行為”——只要能贏就是一步好棋。但更多時候,要訓練AI去完成一些缺乏客觀好壞規則的任務,讓系統自身去理解什么是“好的行為”非常困難。
記者:聯名公開信指出,最近幾個月,人工智能實驗室正陷入一場失控的競賽(out-of-control race),這是否真的在發生?
阿布-穆斯塔法:這是一種非常情緒化的表述。不過可以預料到,在短期未來AI產業格局中,世界范圍內很可能只有兩到三個非常強大的類似ChatGPT的人工智能工具占領整個全球市場,因為開發這樣的大模型成本巨大,需要數千個GPU(圖形處理器)核心運行2個月,以及海量的數據和算力。這也是為什么目前所有最新的大模型進展都來自科技公司,而不是大學。
五年后是否可能誕生一種能節省大量計算資源的新模型,還未可知。如果以后真的出現一種完全不同的模型,可以讓成本從10億美元降至1000萬美元,這就改變了游戲規則,屆時將會有大量玩家出現。
記者:大模型時代的到來,也和基于“預訓練+微調”這種自然語言處理(NLP)的主流范式有關。2018年后,這種模式幾乎重塑了人工智能的商業形態,你如何看待這種趨勢?
阿布-穆斯塔法:“預訓練+微調”是一種分而治之的巧妙方式,一次訓練AI專注于一個問題并完善它。這使人們能在目前成就基礎上再接再厲,而非從頭開始。
OpenAI將其對公眾開放的這個主意很聰明,現在他們獲得了大量的數據和反饋,可用來訓練新一代系統,而且這些資源是獨家的,因為公眾不會對下一個類似產品產生同樣多的興趣。
AI只是在復制人類的“外觀”
記者:如何理性客觀認知當下的人工智能水平和ChatGPT的能力邊界?
阿布-穆斯塔法:我有個朋友問ChatGPT:“關于阿布-穆斯塔法,你知道什么?”ChatGPT列出了關于我的一份詳細履歷和人物小傳,首段看起來非常專業,但接下來就有不少錯誤,比如搞錯了我的大學。這充分說明了ChatGPT的本質:某種意義上,它只是把所有信息以一種非常特殊的彼此相關的方式放在一起。
人工智能使用了一種類似人類大腦的結構,這種結構以一種高效方式存儲信息,看到新情況后推理判斷什么是“最接近它的東西”。這就是深度神經網絡所做的,已持續幾十年。
目前,人工智能整體發展水平令人振奮。但即使在業內,真正了解所有技術細節的人很少,只有OpenAI、Google這些參與了大模型訓練的人才能說清楚,但他們對外分享信息有限。我推測,下一步最重要的突破可能集中在AI系統如何用更少資源達到相同的性能水平。
記者:沿這條路繼續走,AI是否能進化到理解“概念”和“常識”?有專家認為GPT-4已初具“自我反思”能力,你怎么看?
阿布-穆斯塔法:如果說人工智能已發展出自我反思能力,那一定是數量巨大的任務訓練帶來的,是通過合并足夠數量的“分散而零碎的智能任務”實現的。比如說做1000個ChatGPT,其中一個對語言感興趣,一個處理數學問題,一個負責視覺識別……直到其“能力”覆蓋幾乎人類所有領域,再合并為一,它一定能表現出一種“通用的智能”,這就是“多模態機器學習”的本質。
但這只是表象,只是看起來具備自我反思能力和通用智能。某種意義上,這個巨大系統只是試圖復制人類的“外觀”。
記者:怎么理解微軟研究人員稱,GPT-4已經顯示出接近人類智能或通用人工智能的“火花”?
阿布-穆斯塔法:問題的關鍵是,“通用人工智能”(Artificial General Intelligence,AGI)到底是什么?對于通用人工智能,人類想追求的是:AI突然之間學會了以上所有,能舉一反三,而不是一次次學會某個特定任務。但這是一個非常模糊的描述。
現在迫切需要就“通用人工智能”概念達成共識,用精確的計算機語言界定它,制定明確的檢驗規則。遵照這些規則,人類才能知道AGI是否已經實現、潛在的危險是什么。
人類為什么這么關心“通用人工智能”,因為它觸及了人性中最根本的東西,侵犯了人類的自我(Ego),即人類是不是最獨一無二的存在。對如何實現AGI,目前所有想法都只是推測,人們只能針對已看到的技術范式進行突破;但真實情況是,我們根本難以想象會走上一條怎樣的路徑。
當人們談論“通用人工智能”時,承載了太多情感,有時甚至是不切實際的期望和恐懼,但這種恐懼把智能和“自我”混為一談。人們必須冷靜下來,理性地把AGI視作一個科學目標。
記者:人工智能是否能產生“自我意識”?
阿布-穆斯塔法:我認為AI領域的任何技術進步都不可能產生一個“有意識的實體”。意識和情緒的“顯現”很容易做到,AI未來能“看起來像擁有了情感或意識”,就像電影里有一個演員表達出了某種強烈的情緒,但這只是表演,是純粹的行為表象。
對人類意識的定義在科學上都是不確定的,客觀上也不可測量。我知道我有意識,你有意識,你知道愛是什么,情感是什么,悲傷是什么,因為你能感覺到,你能與它們聯系起來。但這些都是人類經驗。為什么會這樣?我們不知道。
我認為AI始終是一個無生命的機器,背后有嚴密的齒輪在驅動它,這些齒輪就是參數。復雜的輸出可能會給我們留下“那里有一個與眾不同的人”的印象,但這種輸出不是來自意識,而是算法。為什么我們認為有人在那里?因為當人們看到這個輸出后,把它在腦海中與過去的記憶、情感,與人類自身聯系在一起。
常規工作或在更短時間內被AI替代
記者:未來哪些行業會從AI發展中受益,哪些可能被顛覆?
阿布-穆斯塔法:所有行業都會從人工智能的發展中受益,甚至以無法預料到的方式。
五年前有人問我:人工智能下一個20年如何發展?我說,AI將在20年內取代人類幾乎所有常規智能工作(routine intelligence tasks),也就是“完成復雜任務但不需要創新的智能”,自動駕駛是一個典型例子。這是一個必須要積極解決的社會問題,否則很多人將面臨失業。
ChatGPT誕生后,我修正了我的預期,我現在認為,可能不需要20年,這些常規工作在更短時間內就可能被AI替代,不管我們如何界定“通用人工智能”,常規智能是通向它的第一步。
記者:在常規智能工作之外,AI未來是否也會取代一些更具有創造力的工作?
阿布-穆斯塔法:以AlphaGo為例,你會發現AI在某種意義上也在進行“創造性的防御”:為贏得比賽,它發現了人類沒想到的防御策略。我不知道這是不是創新或只是自動化的產物,因為這背后是AI對海量策略的嘗試。“AI的創造力”目前也沒有很可靠的定義。
記者:人類應如何與AI共存?
阿布-穆斯塔法:我們沒有與AI共存的壓力,AI永遠是人類的附屬品。(完)
受訪者簡介:
亞瑟•阿布-穆斯塔法(Yaser S. Abu-Mostafa),埃及裔美國計算機科學家,加利福尼亞理工學院電氣工程和計算機科學教授。研究涵蓋人工智能、機器學習、模式識別和數據科學等多個領域,在人工智能教育和科普方面做出重要貢獻。
國內新聞精選:
- 2024年12月23日 15:49:24
- 2024年12月23日 14:13:38
- 2024年12月23日 12:01:50
- 2024年12月22日 16:48:36
- 2024年12月22日 15:53:01
- 2024年12月22日 09:16:06
- 2024年12月22日 09:08:46
- 2024年12月21日 19:19:45
- 2024年12月21日 17:09:19
- 2024年12月21日 14:25:07