![]()
公司情報專家《財經涂鴉》獲悉,9 月 11 日,香港大學計算與數據科學學院院長馬毅在 2025 Inclusion·外灘大會開幕主論壇上發表主題演講。
他指出,當前人工智能雖技術蓬勃發展,卻仍缺乏對智能本質的科學理解,因此,“必須將AI從依賴試錯、不可解釋的‘黑箱’系統,轉變為基于數學原理與閉環反饋的‘白箱’模型,才能真正實現機器智能”。
“智能的核心在于‘自我驗證與自我糾錯’的能力,而當前的大模型僅是靜態知識的存儲庫,因而才會出現基礎邏輯混亂和‘幻覺’問題”。 馬毅表示,“雖然擁有海量‘知識’,但它們并不具備真正的‘智能’。”
展望未來,他認為,必須將智能作為一個嚴謹的科學與數學課題來研究,聚焦于構建具備個體記憶與閉環自治能力的系統,在可解釋的理論框架下推動機器智能向真正意義上的“自主智能”演進。
以下為馬毅演講全文(根據表述需求有所刪減):
大家好!
過去十幾年人工智能的發展,令人變得既“興奮”又非常“焦慮”——作為計算學院院長,我在香港大學今年招生時,收到了無窮多的家長的電話:馬老師,到底我的小孩該學什么專業?五年畢業以后、四年畢業以后,是不是工作還在?
中國的哲學講,大道至簡。很可能這些千變萬化的技術背后,只是一個非常簡單、統一的機制在起作用。所以,遵循第一性原理,先搞清楚目的,其它的無非就是手段而已。
世界上有兩件事情最值得學習,一個是宇宙怎么來的?這是物理研究的問題;一個是生命怎么來的?這是智能要研究的問題。
大家現在都在談大模型/Scaling Laws,實際上我們的DNA就是自然界最早的大模型。它學到了外部世界所有值得傳承的知識,通過DNA編碼傳承記憶下去。它的迭代的方式,今年的圖靈獎有一個有趣的名字,叫作Reinforcement Learning。
所以,自然界早就在做這個事情,已經做了幾十億年。從這個角度看,現在智能發展的階段,就是生命發展的最早期。
但是,5億年前發生一件了不起的事情,每個個體開始出現了大腦、神經系統,出現了視覺。之后很快就出現了寒武紀/生命大爆發。此前,DNA個體是沒有智能的。一旦個體的智能、感知和記憶出現,Learn from your feedback,Learn from your errors,將會大大提高每個個體的適應性。
而且,智能發展是一直在擺脫這種大模型的進化。第一個階段,是我們出生之后會逐漸想擺脫DNA,去學更多外部世界的知識;第二個階段,是人發明了語言和文字,將文明一代代傳承下去,用文字取代了DNA的作用。
再往后,3000年前我們發明了數學和邏輯,開始對科學知識進行編碼,導致了科學的發展。這才是artificial intelligence所包含的真正意義。
現在很多人認為人工智能源于1956年,這是完全錯誤的觀念,真正的起源是1940年代,一個叫Norbert Wiener的MIT教授,提出來Cybernetics,可以簡要翻譯成控制論。他研究的是動物是怎么學習,如何用機器實現動物層面的智能。那個時代所有跟智能相關的人都是受他的影響,比如信息論的奠基人香農、對策論的奠基人馮·諾依曼。
不過,現在出現了一個非常時髦的詞,具身智能。大家知道,剛開始人對神經元理解之后,就急著去Networks,并聲稱可以建模型了,機器可以自己思考了,有自己的意識了,可以干所有的活了,所有工作我們都不用做了。
50年代時,這種牛就已經吹過了。當然,是以失敗告終。但還是有很多人堅持,2012年,數據和算力讓神經網絡的實現變成可能。后面發生的事情,跟生命早期發生的事情一模一樣,大浪淘沙。
為什么我們一定要把它搞清楚呢?因為任何事情一旦是黑盒子,就會變成歷史的教訓。我們不理解天體運動時,就會出現封建迷信。科學就是要把它們解釋清楚,告訴大家它的原因、它的機理是什么。
為什么要學習?什么是值得學習的?智能都是在看似無序的世界中找到規律,把它有用的知識形成記憶,記下來。所有可預測的信息都是我們觀測的高維數據,如果它是有可預測的信息,它的內在結構都是低維的。牛頓第一定律說,當一個物體不受外力的時候,它會在一條直線上運動,不會在三維空間中任何一個維度出現。
所有的物理定律都是以等式的形式出現,為什么?多一個等式對于外部世界的解空間降一維,多一個等次降一維。最新的理論告訴大家,從黑洞爆炸開始,所有的物理規律,整個宇宙世界是在一個十維的空間,它不是一個無窮維。數學上,大家都講神經網絡是一個inductor,實際上第一性原理就是你只需要一個最簡單的assumption。
我可以告訴大家,推導出過去十年所做的所有事情,只需要一個假設,你的數據、值得學習的數據,它的數學結構是低維的,這是我們需要的唯一假設,所有的東西可以通過嚴格的數學手段和邏輯推導出來。
人類花了八十年,從不可計算到可計算,從不tractable到tractable, 從tractable到scalable, 才導致了今天人工智能的技術。但即使用了人工智能技術,到了scalable,效率離nature至少還差十個數量級——此刻可能是又該向自然界學習的時候了,不要還那么自以為是,我們還處在生命發展的極早期,剛剛開始,甚至還沒有開始。
Jeff Hinton 2022年已經承認了,自然界不做back propagation,太貴了,沒法做,只有埃隆馬斯克可以玩得起,我們玩不起。但是自然界有另外的一條路通向羅馬,就是similarities,反饋控制,連續學習的機理。
我們的大腦是幾十萬個閉環系統聯結在一起的并行分布的事情,我們對實現這樣的技術還根本沒有開始。用General purpose的計算機、CPU、GPU去實現智能真正所需要的計算,是一條極其極其繞的彎路。大家想找的近路,自然界早就找到了。
最后,再給大家講一下,大家對智能的理解有非常多的誤區,認為一個系統有知識就是有智能。實際上是不對的——
GPT有知識,它沒有智能,它就跟早期的DNA一樣;新生兒有智能,不一定有很多知識,但卻有機會成為下一個愛因斯坦。能夠對人類知識有自己學習的能力,甚至糾正人類所有知識里面的缺陷,這才是智能的本質。
大家都在談,過去是人工智能的時代,實際上不是。我們過去十年所做的事情,還僅僅局限在40年代實現動物層面的,即感知、記憶、生成、預測這一層的機理,離真正的1956年人工智能的Program,還沒有開始。嚴格來講,所有的模型,包括GPT5,連基本的自然數的概念都沒有。
現在大家都在很籠統的講,什么圖靈測試都超過人了。那計算器做加減乘除早就超過人了。所以,該怎么科學的界定一個系統它的智能的能力?
這件事情我們要認真的去反思。圖靈測試,到底一個系統它完成一個任務是基于記憶還是真正的理解了知識?現在經常有人說,大模型可以取代科學家、Poster、PHD了,真的嗎?它們有沒有科學家所具備的這種能力,現在必須界定清楚,而不能籠統的討論,那不濟于事。
這是我們最近完全開源的一本書,中文、英文AI翻譯的,內容是關于學習,建立智能的數學原理,以及深度學習。完全把黑盒子打開成白盒,現在成為一個開源的項目,跟王堅總講的很像,大家可以去試一試。
所以,有沒有可能把智能作為一個科學的問題、數學的問題,界定清楚,變成白盒子,連高中生大家都能知道它在做什么,這是過去很多團隊一起在做的事情。
大家想通過一個talk就了解一個智能,這是完全異想天開,其中必須要有嚴格的、科學的、數學的證據鏈,以及實驗的證據鏈。這是我們過去十年認真在做的一件事情,也是學術界、科學界必須做的事情。我們必須當成一個真正的工程來完成,這是我希望大家了解的。
謝謝大家!
作者:蘇打
編輯:tuya
出品:財經涂鴉(ID:caijingtuya)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.