<blockquote id="ue9b1"></blockquote>
    
    

    <style id="ue9b1"></style>
      <sub id="ue9b1"><p id="ue9b1"><form id="ue9b1"></form></p></sub>

      <strong id="ue9b1"><button id="ue9b1"><mark id="ue9b1"></mark></button></strong>
      成年午夜性影院,下面一进一出好爽视频,国产无遮挡又黄又爽又色,国产精品爽爽v在线观看无码,国产人妻久久精品一区二区三区,国产伦精品一区二区三区免费迷,国产欧美精品一区二区三区,日韩精品一区二区三区视频
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      LLM將是又一個“慘痛教訓(xùn)”?強(qiáng)化學(xué)習(xí)之父Sutton再放炮:萬億美金AI泡沫可能破裂

      0
      分享至


      Sutton老爺子最新采訪討論《LLM是否吸取了‘慘痛教訓(xùn)’?》,這次討論算是前一段時間老爺子《LLM是死路一條》的采訪的補(bǔ)充

      參與討論的嘉賓:

      Sutton老爺子

      Sendhil Mullainathan:麥克阿瑟天才獎獲得者、麻省理工學(xué)院教授

      Niamh Gavin:應(yīng)用人工智能科學(xué)家、Emergent Platforms 首席執(zhí)行官

      Suzanne Gildert:Nirvanic Consciousness Technologies 創(chuàng)始人兼首席執(zhí)行官


      LLMs是否真正遵循了“慘痛教訓(xùn)” (The Bitter Lesson) 的原則,從而能夠?qū)崿F(xiàn)其被大肆宣傳的巨大潛力?圖靈獎得主,強(qiáng)化學(xué)習(xí)之父 Richard Sutton認(rèn)為答案是否定的。他主張,LLMs 過度依賴于模仿和提煉有限的人類知識(例如整個互聯(lián)網(wǎng)的文本數(shù)據(jù)),并且需要大量的人工雕琢與微調(diào)。這種方法違背了“慘痛教訓(xùn)”的核心思想——即真正可擴(kuò)展的、強(qiáng)大的 AI 來自于那些能夠充分利用巨大計算能力的通用方法(如搜索和學(xué)習(xí)),而非依賴于人類的先驗知識。因此,Sutton 預(yù)測,LLMs 的發(fā)展將很快遇到瓶頸,其能力上限遠(yuǎn)比人們想象的要近,當(dāng)前圍繞它們產(chǎn)生的巨大投資和期望,最終可能導(dǎo)致泡沫的破滅

      LLM是否吸取了“慘痛教訓(xùn)”?

      這場被主持人 Ajay Agrawal 形容為“萬億美元級別觀點沖突”的討論,源于 AI 社區(qū)內(nèi)部一個深刻的理念分歧。辯論的核心是一個術(shù)語:“慘痛教訓(xùn)信徒” (bitter lesson pilled),這個詞源自 Sutton 老爺子 在 2019 年發(fā)表的一篇影響深遠(yuǎn)的文章——《慘痛教訓(xùn)》(The Bitter Lesson)

      什么是“慘痛教訓(xùn)”?

      根據(jù) Sutton 的闡述,The Bitter Lesson總結(jié)了 AI 研究七十年來的一個反復(fù)出現(xiàn)的模式:

      研究人員最初總是試圖將人類的知識、直覺和理解構(gòu)建到 AI 系統(tǒng)中。例如,在計算機(jī)視覺領(lǐng)域,早期研究者會嘗試為系統(tǒng)編寫關(guān)于邊緣、紋理和形狀的明確規(guī)則;在棋類游戲中,他們會編寫復(fù)雜的評估函數(shù)來體現(xiàn)人類棋手的策略

      然而,從長遠(yuǎn)來看,這些依賴人類知識的方法最終總會被那些更通用的、利用大規(guī)模計算能力的方法所超越。這些通用方法主要包括兩大類:搜索 (Search)學(xué)習(xí) (Learning)

      搜索是指系統(tǒng)通過探索海量的可能性來找到最優(yōu)解,就像 AlphaGo 探索無數(shù)種棋局走法一樣。學(xué)習(xí)則是指系統(tǒng)從原始數(shù)據(jù)或與環(huán)境的交互中自動提取模式和知識,而無需人類為其預(yù)設(shè)規(guī)則

      慘痛的教訓(xùn)在于,研究人員花費大量心血構(gòu)建的精巧知識體系,其擴(kuò)展性非常有限。而隨著計算成本的持續(xù)指數(shù)級下降(摩爾定律),那些能夠充分利用計算能力進(jìn)行大規(guī)模搜索和學(xué)習(xí)的“蠻力”方法,最終總是能取得更好的性能。Sutton 明確指出,如果你將所有的賭注都押在人類知識這個籃子里,那就需要格外小心,因為人類知識本身是無法像計算那樣無限擴(kuò)展的

      LLMs 為何被認(rèn)為未能吸取“慘痛教訓(xùn)”?

      Sutton 在前段時間與 Dwarkesh Patel 的播客訪談中明確表示,他認(rèn)為當(dāng)前的 LLMs 并未充分吸取這一教訓(xùn)。他的論點可以分解為以下幾個層面:

      對人類數(shù)據(jù)的根本依賴:LLMs 的基礎(chǔ)訓(xùn)練數(shù)據(jù)是整個互聯(lián)網(wǎng)的文本和代碼,這本質(zhì)上是人類知識和行為的集合。它們通過預(yù)測下一個詞元 (token) 的方式,學(xué)習(xí)模仿人類的語言模式。這與“慘痛教訓(xùn)”所警示的“依賴人類知識”的做法高度一致

      大量的人工雕琢與微調(diào):一個原始的、僅通過預(yù)測下一個詞元訓(xùn)練出來的 LLM,并不能成為一個好用的工具。為了讓它成為一個有用的摘要器、翻譯器或問答系統(tǒng),需要進(jìn)行大量的后續(xù)工作。這包括指令微調(diào) (fine-tuning) 和基于人類反饋的強(qiáng)化學(xué)習(xí) (Reinforcement Learning from Human Feedback, RLHF)。在這個過程中,人類操作員會花費大量時間來評估模型的輸出、編寫高質(zhì)量的范例,從而將模型“雕琢”成符合人類期望的樣子。Sutton 認(rèn)為,這種對人類專家進(jìn)行“ad nauseam”(令人厭煩地反復(fù))微調(diào)的依賴,是其不可擴(kuò)展性的一個關(guān)鍵標(biāo)志

      有限的數(shù)據(jù)源:盡管互聯(lián)網(wǎng)的數(shù)據(jù)量極其龐大,但它終究是有限的。Sutton 和其他嘉賓暗示,隨著模型規(guī)模的增長,LLMs 很快就會耗盡高質(zhì)量的互聯(lián)網(wǎng)數(shù)據(jù),從而觸及其性能的天花板。當(dāng)模型的發(fā)展受限于一個靜態(tài)、有限的數(shù)據(jù)集時,它就陷入了“慘痛教訓(xùn)”所描述的困境。

      因此,Sutton 的核心觀點是,LLMs 當(dāng)前的成功路徑,本質(zhì)上是又一個將寶押在人類知識上的案例。盡管其規(guī)模空前,但其基本方法論存在脆弱性。他預(yù)測,這種對人類知識和輸入的依賴,將使其在未來被那些能夠通過與環(huán)境直接交互、從經(jīng)驗中持續(xù)學(xué)習(xí)的系統(tǒng)所超越。這也就引出了關(guān)于強(qiáng)化學(xué)習(xí)與當(dāng)前主流方法的對比

      強(qiáng)化學(xué)習(xí)與模仿學(xué)習(xí)

      在討論中,特邀嘉賓 Suzanne Gildert 提出了一個問題,:我們?yōu)槭裁床荒軜?gòu)建一個像松鼠大腦一樣學(xué)習(xí)的 AI?

      Sutton 曾在播客中提到,如果我們能造出一個心智水平相當(dāng)于松鼠的系統(tǒng),那么我們距離實現(xiàn)AGI的目標(biāo)就已經(jīng)不遠(yuǎn)了。這個觀點讓人感到困惑,因為人類能登上月球,而松鼠只會藏堅果,兩者之間似乎存在著天壤之別。然而,Gildert 和 Sutton 的觀點是,構(gòu)建松鼠心智的難度,可能遠(yuǎn)高于構(gòu)建一個基于現(xiàn)有方法的、看似強(qiáng)大的 LLM

      松鼠心智的核心能力:自主學(xué)習(xí)

      松鼠和當(dāng)前 AI 系統(tǒng)之間最根本的區(qū)別在于學(xué)習(xí)能力本身

      一個真正的智能體,比如松鼠,當(dāng)你把它放入一個全新的、從未見過的環(huán)境中時,它能夠自主地開始學(xué)習(xí)。它會探索環(huán)境,理解其中的因果關(guān)系,并形成自己的行為策略以達(dá)成生存目標(biāo)(如尋找食物、躲避天敵)

      相比之下,我們今天所有的 AI 系統(tǒng),包括最先進(jìn)的 LLMs,都不具備這種能力。它們在被部署之前,已經(jīng)通過一個龐大的靜態(tài)數(shù)據(jù)集完成了學(xué)習(xí)過程。如果你把一個 LLM 放入一個它訓(xùn)練數(shù)據(jù)中從未包含過的新場景或新用例中,它無法自主地學(xué)習(xí)和適應(yīng)。它的能力是“已經(jīng)學(xué)到了什么”,而不是“如何學(xué)習(xí)新東西”

      因此,關(guān)鍵的區(qū)別在于“學(xué)習(xí)”這個動作本身。松鼠的智能體現(xiàn)在其持續(xù)學(xué)習(xí)和適應(yīng)的能力,而 LLMs 的“智能”則體現(xiàn)在它對已經(jīng)見過的海量數(shù)據(jù)的模式識別和復(fù)現(xiàn)能力上

      強(qiáng)化學(xué)習(xí)的挑戰(zhàn)與現(xiàn)狀

      理論上,強(qiáng)化學(xué)習(xí)正是致力于解決這種自主學(xué)習(xí)問題的框架。RL 的核心思想是讓一個智能體在環(huán)境中通過試錯來學(xué)習(xí),通過最大化某種累積的“獎勵” (reward) 信號來優(yōu)化其行為策略。然而,在實踐中實現(xiàn)“純粹的 RL”是極其困難甚至不可能的

      獎勵函數(shù)的定義難題:最大的障礙在于我們無法定義一個通用的、適用于所有情境的獎勵函數(shù) 。獎勵函數(shù)告訴智能體什么行為是好的,什么是壞的。對于一個特定任務(wù)(如下棋),定義獎勵很簡單(贏了就獎勵,輸了就懲罰)。但對于一個像松鼠一樣需要在復(fù)雜現(xiàn)實世界中生存的通用智能體,我們該如何定義“獎勵”?是食物、安全感,還是其他更復(fù)雜的目標(biāo)?這個問題的懸而未決,導(dǎo)致純粹的 RL 難以落地

      向模仿學(xué)習(xí)的退化:由于定義通用獎勵函數(shù)的困難,研究人員們在實踐中往往會退而求其次,采用模仿學(xué)習(xí)。他們不再讓智能體自己探索,而是為其提供專家的演示數(shù)據(jù)(例如人類駕駛員的駕駛記錄),讓智能體去模仿這些專家的行為。目前所有看似在進(jìn)行 RL 的工作,最終都或多或少地變成了模仿學(xué)習(xí)

      整個 LLM 的發(fā)展路徑可以看作是一種極端形式的模仿。為了解決從零開始學(xué)習(xí)的“冷啟動問題” ,研究人員選擇了一個代理方案:直接消化整個互聯(lián)網(wǎng)。他們假設(shè),人類的書寫是思維的良好體現(xiàn),語言是區(qū)分人類與其他物種的關(guān)鍵,因此模仿人類語言應(yīng)該是一個不錯的起點。然而,這種方法從一開始就側(cè)重于利用 現(xiàn)有的知識,而非探索未知的世界,這導(dǎo)致了系統(tǒng)更擅長模式識別而非真正的理解,更傾向于模仿而非直覺思維

      總而言之,松鼠的智慧代表了一種理想的 AI 范式:一個能夠在任何新環(huán)境中自主學(xué)習(xí)的通用智能體。而當(dāng)前以 LLMs 為代表的系統(tǒng),則更接近于一種高級的、大規(guī)模的監(jiān)督學(xué)習(xí)或模仿學(xué)習(xí),它們的核心是復(fù)現(xiàn)和內(nèi)化已存在的人類知識,而非從與世界的直接交互中生成新的理解。

      模仿輸出 vs. 模仿行動:人與 LLM 的根本認(rèn)知差異

      MacArthur 天才獎得主 Sendhil Mullainathan 進(jìn)一步深化了關(guān)于模仿的討論,他引用了一條 Rich Sutton 轉(zhuǎn)發(fā)并高度認(rèn)可的推文,揭示了人類與 LLM 在模仿方式上的一個微妙而深刻的區(qū)別。這個區(qū)別或許是理解兩者能力差異的關(guān)鍵所在

      這條推文的核心思想是:

      當(dāng)人類模仿時,他們模仿的是“輸出” (output),但必須自己“發(fā)現(xiàn)” (discover) 達(dá)成該輸出所需的“行動” (action)

      當(dāng) LLMs 模仿時,它們直接模仿的是“行動” (action) 本身

      Mullainathan 認(rèn)為,這個區(qū)別的核心在于“發(fā)現(xiàn)”這個詞

      人類的模仿:一個構(gòu)建內(nèi)在模型的過程

      為了闡釋這個觀點,Mullainathan 舉了幾個例子:

      斑胸草雀 (Zebra Finch) 的鳴唱:一只幼鳥聽到成年鳥的歌聲(輸出),它想要模仿這種聲音。但它無法直接看到或感知到成年鳥是如何控制其聲帶、呼吸和肌肉來發(fā)出這種聲音的(行動)。因此,幼鳥必須通過自己的聲帶進(jìn)行反復(fù)的試錯和練習(xí),逐步“發(fā)現(xiàn)”能夠產(chǎn)生同樣聲音的肌肉控制方法。在這個過程中,它被迫在自己的大腦中建立一個關(guān)于“聲帶肌肉運動”與“產(chǎn)生的聲音”之間關(guān)系的內(nèi)在模型

      代數(shù)證明:一個學(xué)生看到老師在黑板上完成了一個代數(shù)證明(輸出)。即便老師解釋了每一步,學(xué)生看到的仍然是表層結(jié)果。為了真正理解,學(xué)生必須用自己的認(rèn)知機(jī)制去思考:老師是如何想到第一步的?為什么選擇這個引理而不是另一個?學(xué)生需要自己“發(fā)現(xiàn)”通往最終答案的邏輯路徑。這個過程迫使學(xué)生構(gòu)建關(guān)于代數(shù)規(guī)則和解題策略的內(nèi)在心智模型

      馮·諾依曼與蒼蠅問題:Mullainathan 提到了一個關(guān)于數(shù)學(xué)家馮·諾依曼的軼事。在一個經(jīng)典的謎題中(兩輛火車相向而行,一只蒼蠅在中間來回飛),馮·諾依曼立刻給出了正確答案。當(dāng)被問及是否發(fā)現(xiàn)了那個可以簡化問題的“技巧”時,他回答說:“什么技巧?” 原來,他直接用蠻力計算了那個無窮級數(shù)。這個故事說明,即使是面對同一個問題和同一個答案(輸出),不同的人可能會通過完全不同的內(nèi)部認(rèn)知過程(行動)來達(dá)到

      在所有這些例子中,人類的模仿都不是簡單的復(fù)制。我們面對的是一個結(jié)果,然后必須調(diào)動我們自身的認(rèn)知或生理器官,去探索和發(fā)現(xiàn)能夠產(chǎn)生這個結(jié)果的一系列行動。這個“發(fā)現(xiàn)”的過程,強(qiáng)制我們建立起關(guān)于世界如何運作的、更深層次的、具有生成能力的模型

      LLMs 的模仿:表層序列的復(fù)現(xiàn)

      相比之下,LLMs 的模仿方式是根本不同的。當(dāng)一個 LLM 被訓(xùn)練來預(yù)測文本序列中的下一個詞元時,它實際上是在直接模仿“行動”。這里的“行動”就是人類作者寫下的一個又一個詞。它不需要去構(gòu)建一個關(guān)于世界如何運作的復(fù)雜模型來“生成”這些詞;它只需要學(xué)習(xí)在給定上文的情況下,哪個詞出現(xiàn)的概率最高

      Niamh Gavin 指出,LLMs 的自回歸機(jī)制本質(zhì)上就像是神經(jīng)網(wǎng)絡(luò)的順序展開,是一個接一個的序列模式激活,而不是一個基于真正目標(biāo)的、可以被長期優(yōu)化的函數(shù)

      Mullainathan 總結(jié)說,正因為 LLMs 沒有強(qiáng)制去思考在某個行動空間中,哪些行動能夠產(chǎn)生我們看到的輸出,所以我們有理由懷疑它們是否擁有一個真正穩(wěn)健的世界模型

      當(dāng)然,在某些領(lǐng)域,AI 確實被迫建立了世界模型,例如在國際象棋或圍棋中。在這些領(lǐng)域,算法必須從行動空間(落子)映射到結(jié)果空間(勝負(fù)),并且通過自我對弈等方式從經(jīng)驗中學(xué)習(xí)。而這恰恰不是在靜態(tài)文本語料庫上訓(xùn)練的語言模型的主要學(xué)習(xí)方式

      這個關(guān)于模仿方式的深刻區(qū)別,為 Sutton 的“慘痛教訓(xùn)”論點提供了認(rèn)知層面的解釋:僅僅模仿人類行為的表層序列,可能永遠(yuǎn)無法通向?qū)κ澜缫蚬P(guān)系的真正理解,而后者正是AGI的核心

      萬億美元的觀點沖突

      這場討論不僅僅是技術(shù)路線之爭,更深刻地反映了 AI 領(lǐng)域的社會學(xué)和經(jīng)濟(jì)學(xué)動態(tài)。正如主持人 Ajay Agrawal 所言,這不僅僅是學(xué)術(shù)觀點的分歧,而是一場“萬億美元級別的觀點沖突”。巨額的資本投入正在深刻地影響著科學(xué)研究的方向和節(jié)奏

      資本驅(qū)動下的“時尚”與路徑依賴

      Rich Sutton 坦言,當(dāng)他談?wù)摗皯K痛教訓(xùn)”時,他不僅在做一個科學(xué)論斷,更是在評論這個領(lǐng)域的社會學(xué)。他觀察到,AI 領(lǐng)域存在著時尚,某些思想和方法會在特定時期變得極具經(jīng)濟(jì)實力,從而主導(dǎo)整個領(lǐng)域的發(fā)展

      LLMs 作為主導(dǎo)范式:當(dāng)前,LLMs 就是這種主導(dǎo)范式。數(shù)千億美元的資金正涌入這一領(lǐng)域,這種經(jīng)濟(jì)力量改變了科學(xué)討論的格局。傳統(tǒng) AI 思想中,目標(biāo) 和經(jīng)驗一直是核心;而 LLM 的興起帶來了一種全新的、甚至是激進(jìn)的主張:我們不需要明確的目標(biāo),只需要足夠大規(guī)模地模仿人類,某種質(zhì)變就會發(fā)生,從而涌現(xiàn)出理解和推理能力

      話語權(quán)的轉(zhuǎn)變:Sutton 認(rèn)為,“通過模仿就能獲得理解”是一種需要非凡證據(jù)來支持的非凡主張。然而,在當(dāng)前的輿論環(huán)境中,堅持經(jīng)驗和目標(biāo)重要性的傳統(tǒng)觀點,反而被視為是極端的。討論的中心已經(jīng)無可避免地轉(zhuǎn)移到了 LLMs 上

      投資回報的壓力與泡沫風(fēng)險:巨大的投資帶來了巨大的回報壓力。有人表示,如果 AI 的投資需要在 15 年后才能看到回報,那將是一場災(zāi)難。因為已經(jīng)許下了太多承諾,如果這些技術(shù)不能在 3 年內(nèi)產(chǎn)生足夠的回報,就可能引發(fā)一場信心的崩盤和泡沫的破裂。Sutton 認(rèn)為,這正是我們目前所處的境地。LLMs 無疑會在某些方面非常有用,但它們很可能無法證明投入其中的巨額資本是合理的,從而導(dǎo)致一場期望的破滅

      工程與研究的張力:創(chuàng)新者的困境

      Niamh Gavin 作為身處行業(yè)前沿的實踐者,為這種現(xiàn)象提供了一個內(nèi)部視角。她指出了研究和工程之間存在的持續(xù)張力,這種張力解釋了為什么整個行業(yè)似乎會“夢游般地走向自己的滅亡”,反復(fù)陷入相似的困境

      修補(bǔ)而非重構(gòu):當(dāng)模型在實踐中遇到瓶頸或限制時,理想的做法是退后一步,從根本上重新思考和設(shè)計模型架構(gòu)。然而,在商業(yè)化和產(chǎn)品迭代的壓力下,工程師的本能反應(yīng)通常是我能修復(fù)它。他們會設(shè)計出各種工程上的變通方案 來支撐這個有局限性的模型

      走向脆弱和過擬合:這種不斷修補(bǔ)的迭代方式,而不是徹底的創(chuàng)新,導(dǎo)致系統(tǒng)變得越來越復(fù)雜、越來越脆弱,并且對訓(xùn)練數(shù)據(jù)過擬合。它阻礙了對全新、可能更具擴(kuò)展性的方法的探索

      創(chuàng)新者的困境 :這正是典型的創(chuàng)新者困境。一個已經(jīng)投入巨資并圍繞某種技術(shù)路徑建立了整個生態(tài)系統(tǒng)的組織,很難去擁抱一種可能顛覆現(xiàn)有路徑的、全新的、不確定的技術(shù)。他們傾向于在既有路徑上進(jìn)行漸進(jìn)式改進(jìn),直到整個系統(tǒng)變得不再可擴(kuò)展,最終被迫進(jìn)行重構(gòu)

      Gavin 認(rèn)為,LLM 領(lǐng)域也正在經(jīng)歷這個過程。從業(yè)者們已經(jīng)看到了純粹依賴 Transformer 架構(gòu)和計算擴(kuò)展定律的局限性,并開始逐步轉(zhuǎn)向更復(fù)雜的、基于推理的方法(如思維鏈,Chain of Thought),并試圖將其與類似 RL 的環(huán)境相結(jié)合。然而,這種轉(zhuǎn)變是在現(xiàn)有框架下的修補(bǔ),而非徹底的范式革命。這場萬億美元的豪賭,其背后蘊含著深刻的路徑依賴和商業(yè)慣性,這或許是“慘痛教訓(xùn)”難以被真正吸取的主要原因

      承認(rèn) LLM 的非凡成就,但需正確定義

      盡管對 LLMs 的最終潛力及其是否符合“慘痛教訓(xùn)”存在激烈辯論,但參與討論大大佬也一致承認(rèn),LLMs 本身是一項了不起的技術(shù)成就。Sendhil Mullainathan 提出,當(dāng)前討論中的一個悲劇,在于我們將對 LLMs 的兩種評判混為一談了

      區(qū)分潛力推斷與實際能力

      Mullainathan 認(rèn)為,我們需要清晰地區(qū)分兩件事:

      1.人們通過觀察 LLMs 的行為而推斷出的、其未來可能達(dá)到的能力(例如,通往通用人工智能 AGI)

      1. 2. 這些模型已經(jīng)能夠并且將能夠做到的、令人驚嘆的事情

      他認(rèn)為,將 LLMs 的現(xiàn)有能力外推至通用智能的水平,很可能是一種誤導(dǎo) 。然而,這并不意味著 LLMs 本身沒有價值。恰恰相反,它們的能力是驚人的

      一個被錯誤命名的奇跡

      Mullainathan 指出,真正的悲劇不在于 LLMs 有其局限性,而在于我們對它產(chǎn)生了錯誤的期望,并因此無法公正地評價它已經(jīng)取得的成就

      純粹模仿產(chǎn)生的涌現(xiàn)屬性:一個核心的、令人著迷的科學(xué)問題是:為什么純粹的、大規(guī)模的模仿學(xué)習(xí)能夠產(chǎn)生如此多、如此驚人的涌現(xiàn)屬性?我們是如何從簡單的“預(yù)測下一個詞”任務(wù)中,得到能夠進(jìn)行一定程度推理、翻譯和代碼生成的能力的?這本身就是一個值得深入研究的奇跡

      價值在于其本身,而非其是否是“智能”:歷史上出現(xiàn)過許多偉大的創(chuàng)新,它們?yōu)槿祟悗砹司薮蟮膬r值,但它們并不是智能。Mullainathan 覺得,LLMs 也是如此。如果我們給它換個名字,不叫它人工智能,而是稱之為一種強(qiáng)大的算法工具,或許我們就能更客觀地看待它的價值和用途

      這場討論最終回歸到一個更為冷靜和建設(shè)性的視角。雖然 LLMs 可能不是通往 AGI 的康莊大道,也可能再次印證了“慘痛教訓(xùn)”,但這并不妨礙它們成為一種極具變革性的工具。當(dāng)前公眾和資本市場的巨大熱情,或許源于一種概念上的混淆。與其糾結(jié)于它是否是真正的智能,不如將注意力集中在理解其能力的來源、探索其應(yīng)用的邊界,并承認(rèn)它作為一種前所未有的算法奇跡所具有的非凡價值。這或許是穿越炒作周期、實現(xiàn)技術(shù)長期健康發(fā)展的關(guān)鍵

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      突發(fā)!神舟二十號飛船遭太空垃圾撞擊,將推遲返回!問題大不大?

      突發(fā)!神舟二十號飛船遭太空垃圾撞擊,將推遲返回!問題大不大?

      科普大世界
      2025-11-05 11:06:27
      震驚!長沙女子曬出生育津貼104412.75元,休了173天,每天603元

      震驚!長沙女子曬出生育津貼104412.75元,休了173天,每天603元

      火山詩話
      2025-11-04 18:38:12
      對話時空壺CTO石偉:我們要讓技術(shù)更有溫度,歡迎良性競爭

      對話時空壺CTO石偉:我們要讓技術(shù)更有溫度,歡迎良性競爭

      雷科技
      2025-11-04 21:12:17
      樂視創(chuàng)始人欠122億巨債跑美七年,400多名老員工讓樂視起死回生。

      樂視創(chuàng)始人欠122億巨債跑美七年,400多名老員工讓樂視起死回生。

      百態(tài)人間
      2025-11-05 05:35:03
      網(wǎng)傳相聲表演要備案?只聽正能量相聲,要守規(guī)矩笑,不能現(xiàn)掛?

      網(wǎng)傳相聲表演要備案?只聽正能量相聲,要守規(guī)矩笑,不能現(xiàn)掛?

      眼光很亮
      2025-11-05 09:46:00
      國足新主帥出爐!名記:邵佳一確認(rèn)當(dāng)選,執(zhí)教西海岸勝率36%

      國足新主帥出爐!名記:邵佳一確認(rèn)當(dāng)選,執(zhí)教西海岸勝率36%

      奧拜爾
      2025-11-05 17:03:23
      63歲演員吳鎮(zhèn)宇刷老年卡坐公交,被疑“冒用他人證件”險被趕下車,當(dāng)場掏身份證自證清白

      63歲演員吳鎮(zhèn)宇刷老年卡坐公交,被疑“冒用他人證件”險被趕下車,當(dāng)場掏身份證自證清白

      極目新聞
      2025-11-04 21:57:03
      開拓者官方:楊瀚森被下放至G聯(lián)賽,隨混音隊完成今日訓(xùn)練后將被召回

      開拓者官方:楊瀚森被下放至G聯(lián)賽,隨混音隊完成今日訓(xùn)練后將被召回

      懂球帝
      2025-11-05 08:10:07
      一位姓袁的歷史老師,為何能3次準(zhǔn)確預(yù)言俄烏戰(zhàn)爭走向?

      一位姓袁的歷史老師,為何能3次準(zhǔn)確預(yù)言俄烏戰(zhàn)爭走向?

      貓智深
      2025-11-04 20:10:12
      3名廳官被查,他上周剛被免職

      3名廳官被查,他上周剛被免職

      魯中晨報
      2025-11-05 15:59:05
      澤連斯基為何再次親赴一線?俄羅斯“戰(zhàn)神”敲響警鐘

      澤連斯基為何再次親赴一線?俄羅斯“戰(zhàn)神”敲響警鐘

      史政先鋒
      2025-11-05 15:43:21
      價格大跳水!廣東富豪最愛的“雷車”不香了?網(wǎng)友:老廣買不動了

      價格大跳水!廣東富豪最愛的“雷車”不香了?網(wǎng)友:老廣買不動了

      品牌觀察官
      2025-11-04 21:42:02
      石家莊警方:男子因工作糾紛持刀扎傷兩名同事,已被當(dāng)場控制

      石家莊警方:男子因工作糾紛持刀扎傷兩名同事,已被當(dāng)場控制

      界面新聞
      2025-11-05 13:44:22
      讓全世界開開眼!中國航天員空間站里吃燒烤,國際空間站要饞哭了

      讓全世界開開眼!中國航天員空間站里吃燒烤,國際空間站要饞哭了

      魚缸里的假山
      2025-11-04 21:57:29
      美參議院通過決議終止特朗普關(guān)稅政策,但眾議院預(yù)計無法通過

      美參議院通過決議終止特朗普關(guān)稅政策,但眾議院預(yù)計無法通過

      合贊歷史
      2025-11-05 15:27:21
      臺風(fēng)“海鷗”已進(jìn)入南海!今起,廣西天氣大反轉(zhuǎn)

      臺風(fēng)“海鷗”已進(jìn)入南海!今起,廣西天氣大反轉(zhuǎn)

      魯中晨報
      2025-11-05 15:23:04
      畫面曝光!美國發(fā)生墜機(jī)事故,現(xiàn)場十分慘烈,疑與政府關(guān)門有關(guān)

      畫面曝光!美國發(fā)生墜機(jī)事故,現(xiàn)場十分慘烈,疑與政府關(guān)門有關(guān)

      派大星紀(jì)錄片
      2025-11-05 15:37:17
      邵佳一掌舵國足!媒體人熱議:別把人家害太慘了,難度非常非常大

      邵佳一掌舵國足!媒體人熱議:別把人家害太慘了,難度非常非常大

      奧拜爾
      2025-11-05 17:26:48
      中國有了自己的租房“大模型”

      中國有了自己的租房“大模型”

      華商韜略
      2025-11-05 10:24:49
      商務(wù)部副部長李成鋼會見美國農(nóng)產(chǎn)品貿(mào)易代表團(tuán)

      商務(wù)部副部長李成鋼會見美國農(nóng)產(chǎn)品貿(mào)易代表團(tuán)

      界面新聞
      2025-11-05 17:24:55
      2025-11-05 19:08:49
      AI寒武紀(jì) incentive-icons
      AI寒武紀(jì)
      專注于人工智能,科技領(lǐng)域
      960文章數(shù) 370關(guān)注度
      往期回顧 全部

      科技要聞

      大轉(zhuǎn)彎!特朗普再提名馬斯克盟友任NASA局長

      頭條要聞

      楊受成名下英皇宮殿停運 曾以大堂鋪滿78公斤黃金聞名

      頭條要聞

      楊受成名下英皇宮殿停運 曾以大堂鋪滿78公斤黃金聞名

      體育要聞

      贏下皇馬,會是利物浦的轉(zhuǎn)折點嗎?

      娛樂要聞

      港星林尚武突發(fā)心臟病去世

      財經(jīng)要聞

      中方官宣!對美關(guān)稅,調(diào)整!

      汽車要聞

      智己LS9入局"9系"混戰(zhàn) 全尺寸SUV市場迎來新變量

      態(tài)度原創(chuàng)

      游戲
      房產(chǎn)
      藝術(shù)
      公開課
      軍事航空

      《寂靜嶺f》女主只是普通人:戰(zhàn)斗設(shè)計一般人都做得到

      房產(chǎn)要聞

      最新!海南樓市10月熱銷榜單出爐!

      藝術(shù)要聞

      蒲華:搦管寫竹,墨沈淋漓

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      美國“福特”號航母駛往加勒比海

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 亚洲国产精品日韩在线| 久久久久青草线蕉亚洲| 亚洲最大成人av在线天堂网| 亚洲国产日韩一区三区| 在线观看免费人成视频色9| 久久国产精品老人性| 国产乱老熟女乱老熟女视频| 国产在线拍揄自揄视频网试看| 国产色无码专区在线观看 | 久久天天躁夜夜躁一区| 久久人人爽人人爽人人av| 竹菊影视欧美日韩一区二区三区四区五区 | 日本激情久久精品人妻热| 成人免费精品网站在线观看影片| 国产三级精品福利久久| 又湿又紧又大又爽A视频男| 久热综合在线亚洲精品| 成人性生交大片免费看| 自拍偷自拍亚洲一区二区| 国产一国产精品免费播放| 午夜爽爽爽男女免费观看影院| 国产精品午夜福利资源| 久久精品中文字幕少妇| 亚洲精品国模一区二区| 国产特色一区二区三区视频 | 97se亚洲国产综合在线| 久久国产成人av蜜臀| 国产精品高清国产三级囯产AV| 公天天吃我奶躁我的在线观看| 亚洲18禁私人影院| 熟女蜜臀av麻豆一区二区| 精品国产迷系列在线观看| 国产女人和拘做受视频免费| 无码无需播放器av网站| 亚洲一区二区三成人精品| 欧美福利在线| 欲色欲色天天天www| 99久久国产一区二区三区| 最近免费中文字幕大全| 亚洲国产精品无码一区二区三区| 国产一区二区亚洲一区二区三区|