<blockquote id="ue9b1"></blockquote>
    
    

    <style id="ue9b1"></style>
      <sub id="ue9b1"><p id="ue9b1"><form id="ue9b1"></form></p></sub>

      <strong id="ue9b1"><button id="ue9b1"><mark id="ue9b1"></mark></button></strong>
      成年午夜性影院,下面一进一出好爽视频,国产无遮挡又黄又爽又色,国产精品爽爽v在线观看无码,国产人妻久久精品一区二区三区,国产伦精品一区二区三区免费迷,国产欧美精品一区二区三区,日韩精品一区二区三区视频
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      對話楊紅霞:從大廠到創(chuàng)業(yè),她希望做出下一個OpenAI

      0
      分享至



      楊紅霞,是中國大模型領(lǐng)域一個無法繞開的名字。人們從 M6 模型(阿里達(dá)摩院發(fā)布的萬億參數(shù) AI 大模型)開始熟知她,而她又在最近走出創(chuàng)業(yè)隱匿模式,正式向世界宣告自己已經(jīng)是一名創(chuàng)業(yè)者,并希望能夠做出下一個 OpenAI。對于這一愿景,她是有底氣的——隱身之前,已經(jīng)收到國內(nèi)外各個 VC 的橄欖枝,以至于當(dāng)問起公司狀態(tài)時她“有些抗拒”地說 Pre-A 已經(jīng) Close,并直言不需要通過這次采訪來拉融資,只是想純粹分享目前可以講的技術(shù)。

      她的創(chuàng)業(yè)故事始于 2024 年加入香港理工大學(xué)之時,在獲得香港政府 1 億港幣 RAISe+資助后,便開啟了分布式 AI 的革新之路。她發(fā)現(xiàn)中心化大模型的局限在于高精尖領(lǐng)域數(shù)據(jù)無法共享,于是開啟了生成式 AI 的創(chuàng)新之路:在各機(jī)構(gòu)本地訓(xùn)練專業(yè)小模型,再通過專業(yè)小模型融合實(shí)現(xiàn)通用人工智能(AGI,Artificial General Intelligence)。

      這項技術(shù)目前已展現(xiàn)出驚人潛力:在癌癥診斷領(lǐng)域,楊紅霞團(tuán)隊的 30 億參數(shù)模型以更小規(guī)模超越谷歌 40 億參數(shù)模型性能 8 個百分點(diǎn);在多模態(tài)推理任務(wù)上,模型執(zhí)行成功率接近 60%,遠(yuǎn)超 GPT-4 的 0.8%。更具突破性的是,她的公司成為全球首個全開源 FP8 低比特預(yù)訓(xùn)練-監(jiān)督微調(diào)-強(qiáng)化學(xué)習(xí)全流程訓(xùn)練的企業(yè),將 FP8 端到端訓(xùn)練速度最高提升 43.3%,顯存峰值節(jié)省最高 24%

      三篇 NeurIPS 頂會論文、18 個基準(zhǔn)測試 75-77 分的優(yōu)異成績,見證著這條技術(shù)路徑的可行性。正如楊紅霞所言:“當(dāng)技術(shù)形成斷崖式領(lǐng)先,商業(yè)化便是水到渠成?!边@位科學(xué)家正用實(shí)踐證明,協(xié)作式生成式 AI 將是打破“富人游戲”、實(shí)現(xiàn)技術(shù)普惠的關(guān)鍵密鑰。


      關(guān)于創(chuàng)業(yè):入職香港理工大學(xué)之日,便是啟動創(chuàng)業(yè)之日

      DeepTech:為何決定創(chuàng)業(yè)?看到了什么需求和機(jī)會?

      楊紅霞:我在 2024 年 7 月加入香港理工大學(xué),目前是計算機(jī)與數(shù)學(xué)科學(xué)學(xué)院的副院長(環(huán)球事務(wù)),也是 AI 高等研究院的執(zhí)行院長。香港這邊非常鼓勵教授創(chuàng)業(yè),并設(shè)有一個名為 RAISe+的資金資助項目,像商湯、大疆都是從香港高校孵化出來的。這個項目由港府出資 100 億港幣資助 100 位高校教授來創(chuàng)業(yè),每個項目會得到大約 1 億港幣的支持,同時項目發(fā)起方不會占據(jù)任何股份。我的公司在 2025 年也得到了項目支持。在加入香港理工大學(xué)之前,我在工業(yè)界大約工作 15 年左右,此前曾搭建阿里巴巴和字節(jié)跳動的基礎(chǔ)模型團(tuán)隊。事實(shí)上,自從于 2024 年 7 月加入香港理工大學(xué)以來我就在著手創(chuàng)業(yè)。天使輪開始于 2024 年 11 月,到 2025 年 3 月份才全部 Close,主要因為一些國際 VC 機(jī)構(gòu)在走流程上需要時間。

      要想理解我的創(chuàng)業(yè)項目,首先得從 OpenAI 的 ChatGPT 說起,類似于 ChatGPT 的模型都是中心化的模型,即把所有的數(shù)據(jù)和算力放在一個地方。這類模型在某些垂直應(yīng)用場景會遇到瓶頸,比如要想打造一個針對全中國的癌癥通用大模型,如果仍然使用中心化方式,就得讓所有醫(yī)院將數(shù)據(jù)放在一個地方。這不僅工作量十分巨大,而且醫(yī)院基于隱私考慮根本不可能分享數(shù)據(jù)。

      如果不是研發(fā)所謂的 AGI,就根本不需要幾萬億參數(shù)的大模型。在醫(yī)學(xué)這樣足夠垂直的領(lǐng)域,一個小模型足以完全擊敗大模型。我自從 2024 年開始便開始研發(fā)中心化模型。去中心化模型的好處在于,能在每家醫(yī)院以本地方式訓(xùn)練小模型,然后通過模型融合技術(shù)去融合所有醫(yī)院的小模型,最終得到一個新的基座模型。

      中心化模型的范式在于通過使用海量的算力和大量的時間去學(xué)習(xí)原始數(shù)據(jù)。這種范式能將文本知識分為上萬個類別,并能在每個領(lǐng)域都打造出一個小模型,這個過程就像是在培養(yǎng)一名頂尖“專才”。每個小模型就像一個領(lǐng)域的專家,能夠很好地代表該領(lǐng)域所有的知識和數(shù)據(jù)。當(dāng)其他模型需要學(xué)習(xí)的時候,可以直接請教這位專家,從而能夠極大提高效率。

      今天只有大廠才能玩得起大模型,所以這依然是一個“富人游戲”,同時目前很少有大廠研發(fā)去中心化大模型,大廠工程師們依然是在做數(shù)據(jù)和應(yīng)用。而今天大家看到的所有和大模型相關(guān)的突破,都和寫代碼、做數(shù)學(xué)題和日常生活相關(guān),截至目前并沒有任何一個高精尖領(lǐng)域的突破。核心原因在于這些高精尖領(lǐng)域的數(shù)據(jù),根本無法像代碼或者數(shù)學(xué)題那樣能夠從互聯(lián)網(wǎng)上獲取。假如你調(diào)用一個類似于 ChatGPT 的中心化模型,由于高精尖領(lǐng)域的數(shù)據(jù)和知識不在這個模型里面,因此很難獲得較好的結(jié)果,進(jìn)而就會出現(xiàn)人們常說的幻覺。

      我個人非??春萌ブ行幕竽P?。由 OpenAI 原 CTO 米拉·穆拉提(Mira Murati)創(chuàng)辦的 Thinking Machine Lab 已經(jīng)估值 120 億美金,由 Transformer 八子之一創(chuàng)辦的日本 Sakana AI 公司也已估值 20 億美金,他們都是在研發(fā)去中心化大模型,而這個方向一定是 AI 發(fā)展的趨勢,也是讓各行各業(yè)都能用上 AI 的必經(jīng)之路。計算機(jī)剛面世的時候只有 IBM 的大型機(jī),直到今天大型機(jī)依然非常流行,比如美國很多軍事機(jī)構(gòu)和銀行機(jī)構(gòu)的數(shù)據(jù)依然存儲在大型機(jī)中。但是我們今天人人都在使用的手機(jī)其實(shí)就是一個去中心化的小型計算機(jī),我們在手機(jī)上的操作本質(zhì)上就是在編程,只不過不用我們親自寫代碼。

      DeepTech:目前公司籌備到怎樣的程度?

      楊紅霞:我們和很多要靠技術(shù)故事融資的初創(chuàng)公司不一樣,我們不太需要這樣做。我們在 2025 年 3、4 月份就完成了天使輪,投資方都是國內(nèi)外的知名機(jī)構(gòu)。半個月前,我們的 Pre-A 輪也已 Close,目前公司估值小幾億美元左右。投資人了解到我們的想法之后,份額很快就超募。所以我們目前真的不缺融資,這次接受采訪就是單純?yōu)榱私涣鳎皇菫槿谫Y造勢。

      圖 | 楊紅霞參加《麻省理工科技評論》主辦的“青年科技論壇”



      DeepTech:相比于美國的 Thinking Machine Lab 和日本的 Sakana AI,你的公司有哪些獨(dú)一無二的特點(diǎn)?

      楊紅霞:相比他們我們已經(jīng)取得非常大的進(jìn)展。

      第一,在本地化部署小模型肯定要進(jìn)行訓(xùn)練。今天的大模型主要有預(yù)訓(xùn)練和后訓(xùn)練。但是,知識注入主要發(fā)生在預(yù)訓(xùn)練階段,如果想在本地化部署小模型,就必須啟動預(yù)訓(xùn)練。此前,全球只有 OpenAI 和 DeepSeek 做到 FP8 全流程預(yù)訓(xùn)練和后訓(xùn)練,而我們是第三家做到的公司并進(jìn)行了全開源。OpenAI 的所有大模型都采用 FP8,其他大廠主要采用 BF16。前陣子寒武紀(jì)說要做 FP8,股價一下子飆升得特別厲害,因為這是所有做大模型的人普遍看到的軟硬協(xié)同發(fā)展的必然趨勢。把推理做成低比特并不難,難度主要體現(xiàn)在訓(xùn)練階段。在算子精度上如果每一個參數(shù)都是 FP8 存儲,那就意味著能在訓(xùn)練過程中節(jié)省將近一半的算力和存儲,同時還能通過我們的訓(xùn)練方案得到和 BF16 一樣好的模型。

      第二,對于 Thinking Machine Lab 和 Sakana AI 來說,它們都處在探索初期。尤其是 Thinking Machine Lab 還處于搭建公司的狀態(tài),目前只有 20 來人左右。從它們的技術(shù)報告來看它們主要還在探討 Model Merging。Model Merging 與 Model Fusion 之間的區(qū)別在于:Model Merging 指的是被融合進(jìn)來的領(lǐng)域模型其模型骨干網(wǎng)絡(luò)必須是同結(jié)構(gòu)的,比如都是基于 LLaMA 3 的同一架構(gòu)得到的;而 Model Fusion 則指被融合進(jìn)來的領(lǐng)域模型其模型骨干網(wǎng)絡(luò)可以是不同結(jié)構(gòu)。這兩方面我們目前都在推進(jìn),并且我們證明了一個重要結(jié)論:在 Model merging 的過程中,Scaling Law(縮放定律)依然存在。

      在低比特大模型方面,我們在開源模型 LLaMA 3.2 和 Qwen2.5 的基礎(chǔ)上進(jìn)行了創(chuàng)新,同時我們專注于推理能力這一核心指標(biāo)。我們所構(gòu)建的 10 億參數(shù)模型在性能雷達(dá)圖上全面超越了同尺寸的 LLaMA,并且逼近規(guī)模大出 50% 的 Qwen 模型,在數(shù)學(xué)解題等特定維度上甚至表現(xiàn)更優(yōu)。在多模態(tài)領(lǐng)域,我們選擇了比較難的手機(jī)操作系統(tǒng)交互場景,將訂機(jī)票的任務(wù)抽象為多圖像多模態(tài)大模型推理問題。在這個 GPT-4 的成功率僅有 0.8% 的高難度任務(wù)上,我們 30 億和 70 億參數(shù)模型的執(zhí)行成功率均接近 60%,成為同尺寸模型中的全球最佳。在技術(shù)框架層面,我們驗證了低比特訓(xùn)練的巨大價值:我們將端到端訓(xùn)練速度最高提升 43.3%,顯存峰值最高節(jié)省 24%,這與 OpenAI 和 DeepSeek 的技術(shù)路線不謀而合。

      同時,我們在模型融合方面也有重大進(jìn)展?,F(xiàn)實(shí)中,往往需要處理不同結(jié)構(gòu)的模型融合,而這正是我們相較于 Thinking Machine Lab 和 Sakana AI 等團(tuán)隊的優(yōu)勢所在。如果要做模型融合,模型參數(shù)就一定要開源。在 150 億參數(shù)到 250 億參數(shù)范圍內(nèi),我們從 18 個在 benchmark 上有著最佳推理效果的模型中選了 4 個。如果從頭開始融合,至少需要 100 萬到 200 萬個 GPU 時,但是經(jīng)過我們公司的融合只需要幾百個 GPU 時。

      我們的模型融合技術(shù)演進(jìn)分為三個階段,對應(yīng)的三篇論文均被 2025 年的 NeurIPS 會議收錄。這三個階段分別是:在第一階段,初始版本采用標(biāo)準(zhǔn)的對數(shù)損失函數(shù)進(jìn)行詞匯對齊,該版本只需利用簡單的融合策略,得分便能達(dá)到 79 分,略優(yōu)于基線。在第二階段,我們發(fā)現(xiàn)由于推理任務(wù)本身較為復(fù)雜,需要在 2025 年 2 月的版本上進(jìn)行改進(jìn)。因此,我們在 5 月引入了圖基損失函數(shù),在全局語義層面的對齊上實(shí)現(xiàn)了更加精準(zhǔn)的對齊,成功將得分提升到 81-82 分。在第三階段,我們集成了強(qiáng)化學(xué)習(xí)來優(yōu)化泛化能力,大約兩個月前這一版本的得分達(dá)到 84 分,而我們的最新成果已能將性能提至 88 分。

      簡單來說,我們只使用幾百個 GPU 小時,就把當(dāng)前領(lǐng)域里最強(qiáng)的四個模型融合在一起。這幾個模型各有絕活——有的搞代碼特別在行,有的特別會解數(shù)學(xué)題,還有的擅長文本邏輯推理。而一旦融合成功,新模型在所有方面都能變得特別強(qiáng)。

      我們還開展了“模型融合縮放定律”的研究??s放定律大家肯定都聽過,但我們最開始接觸它通常是在預(yù)訓(xùn)練階段。而我們現(xiàn)在研究的是模型融合的規(guī)律,其中的一個重要前提是數(shù)據(jù)必須高質(zhì)量。只要滿足這一點(diǎn),只需不斷地增加數(shù)據(jù)、算力和模型規(guī)模,模型性能就會一路漲上去。業(yè)內(nèi)人士都覺得這事特別令人激動,因為理論上只要在這三個方向上持續(xù)投入,總有一天會觸及 AGI。而我們的研究同樣證明:這個規(guī)律也存在于模型融合之中,即只要持續(xù)擴(kuò)大高質(zhì)量數(shù)據(jù)的規(guī)模、模型的個數(shù)和模型的尺寸,模型能力就會同步增強(qiáng)。我們目前正在做的去中心化 AI,旨在解決大模型落地“最后一公里”的問題,因此它很有可能也是一條可以通向 AGI 的路。順便說下,這項工作的相關(guān)論文已經(jīng)投稿到 2025 年的 ICLR 會議。

      在應(yīng)用上,我們目前主要做癌癥診斷和論文寫作。當(dāng)前,業(yè)界做得最好的癌癥模型是谷歌的 MedGemma,它是一個 40 億參數(shù)的模型。我們的模型只有 30 億參數(shù),規(guī)模要比它小三分之一,但性能反而比它高 8%。關(guān)于這部分工作我們也已把論文投到 2025 年的 ICLR 會議。眼下,大模型的天花板是 GPT-5,它能做到 70% 的癌癥診斷準(zhǔn)確率。OpenAI 一直非常重視醫(yī)療,所以 GPT-5 是吞下海量醫(yī)療數(shù)據(jù)之后訓(xùn)練出來的。我們現(xiàn)在正在收尾一個 70 億參數(shù)的模型,雖然尚未最終發(fā)布,但得到的結(jié)果已和 GPT-5 非常接近。

      我們現(xiàn)在正在推動一些臨床實(shí)驗。合作方包括于金明院士所在的山東省腫瘤醫(yī)院,這是全國最好的放療中心;我們也在跟復(fù)旦大學(xué)附屬華山醫(yī)院感染科主任張文宏老師合作,他特別關(guān)注老齡化這一方向;我們也在和馬駿院士所在的中山大學(xué)腫瘤醫(yī)院合作,這家醫(yī)院的鼻咽喉科聞名全國;香港最大的公立醫(yī)院伊麗莎白醫(yī)院也是我們的合作伙伴。我們正在和他們推進(jìn)臨床驗證,最終希望打造一個端到端的癌癥診斷大模型,并能實(shí)現(xiàn)落地應(yīng)用。

      以腫瘤放化療的“靶區(qū)勾畫”為例,這是確定照射范圍與劑量的關(guān)鍵環(huán)節(jié),但至今沒有可以商用的自動化產(chǎn)品,難點(diǎn)主要在于技術(shù)復(fù)雜與醫(yī)院數(shù)據(jù)難以流通。我們與多家醫(yī)院聯(lián)合使用多模態(tài)技術(shù)推進(jìn)臨床驗證與落地,目前模型已能將單例處理時長由 30–50 分鐘降至 10–20 分鐘。我們的路線是打造“小而強(qiáng)”的專業(yè)模型。美國 Abridge 走的則是產(chǎn)品路線,直接調(diào)用 Anthropic 的大模型做電子病歷自動生成,目前該公司估值大約 50 億美元。但是,Abridge 的方案依賴云端模型,隱私無法得到保障。我們則是使用更強(qiáng)的小模型在每臺移動設(shè)備本地生成病歷,數(shù)據(jù)不外傳、隱私可控;規(guī)模化時也無需匯集醫(yī)生數(shù)據(jù),每臺設(shè)備上的模型各自持續(xù)學(xué)習(xí),最后再做模型融合,從而得到更強(qiáng)的專用電子病歷模型。

      論文寫作智能體,其實(shí)是所有智能體應(yīng)用里最大的挑戰(zhàn)之一。搞定一篇高水平論文本身就非常難,包括想題目、看文獻(xiàn)、定義問題、寫代碼做實(shí)驗、最后還要做對比,每一步都不簡單。我們也設(shè)計了一整套智能體流程,從支持任務(wù)復(fù)雜度、泛化能力和生成報告質(zhì)量這些方面來看,我們的結(jié)果能夠媲美 OpenAI 和谷歌的結(jié)果。

      目前,我們的大部分成果都已在 Hugging Face 和 GitHub 開源,代碼都是公開的,大家都可以去復(fù)現(xiàn)。

      DeepTech:醫(yī)生群體和科研人員群體,是兩個主要的用戶對象?

      楊紅霞:我們一開始就瞄準(zhǔn)了醫(yī)療市場,而且不是泛泛地做,是直接挑了最難啃的骨頭——癌癥。選癌癥是因為它的數(shù)據(jù)特別雜,分子、穿刺、血液、醫(yī)學(xué)影像全都涉及,而且整個診斷過程也非常復(fù)雜。具體商業(yè)化細(xì)節(jié)目前還不太方便細(xì)說。實(shí)際上我們就是提供一個方案,讓廣大中小商家、醫(yī)生、醫(yī)院和政府機(jī)構(gòu),都能用很低的成本——就像剛才提到的 FP8 和軟硬件結(jié)合的技術(shù)——獲得他們自己領(lǐng)域里好用的專業(yè)模型。

      DeepTech:目前能夠針對某一種還是某幾種癌癥做檢測?

      楊紅霞:我們目前主要聚焦于鼻咽癌和胃炎等特定疾病。至于不同癌種間技術(shù)遷移的可行性,我們還沒進(jìn)行嚴(yán)格的科學(xué)驗證。我們方法的泛化能力很強(qiáng),不必局限于特定病癥。但在落地策略上,我們依然會采取逐個癌種突破的路徑。具體選擇優(yōu)先攻克哪個癌種,關(guān)鍵在于合作醫(yī)院在哪類癌癥上擁有更豐富的數(shù)據(jù)。例如,南方地區(qū)鼻咽癌高發(fā),相關(guān)數(shù)據(jù)更集中;而山腫所在的北方地區(qū),可能在胃腸癌、肺癌等方面數(shù)據(jù)儲備更充足。因此,數(shù)據(jù)可得性是我們決策的核心依據(jù)。

      DeepTech:醫(yī)生怎么使用你們的產(chǎn)品?需要硬件嗎?

      楊紅霞:不需要硬件。像靶區(qū)勾畫這個功能,它本身就是個軟件,我們會直接集成到醫(yī)院自己的系統(tǒng)里。

      DeepTech:模型是能通過學(xué)習(xí)醫(yī)生問診的過程來積累數(shù)據(jù)嗎?

      楊紅霞:我們是這么做的:先把整個癌癥流程和醫(yī)生一起拆成幾個階段,比如診前、診后、愈后。關(guān)于每個階段,醫(yī)生之前都存有大量病人數(shù)據(jù),比如檢查結(jié)果、診斷記錄和治療方案等。我們的系統(tǒng)就是把這些所有信息、連同病情發(fā)展歷程都拿去一起學(xué)習(xí),等于使用了多智能體的思路。由于任務(wù)過于復(fù)雜,因此我們把它拆成好幾塊,每一塊都有一個專用模型來負(fù)責(zé),最后再拼起來完成整個大任務(wù)。比如,靶區(qū)勾畫就是放療前的那一步。我們真正想打造的是一個能從頭管到尾的、全鏈路的癌癥模型。

      這當(dāng)然并非易事,但我覺得前景很好,因為這幾家醫(yī)院在 AI 和數(shù)據(jù)上的底子非常好。以中山腫瘤醫(yī)院為例,之前幫這家醫(yī)院做大數(shù)據(jù)起家的醫(yī)渡云公司已經(jīng)上市,這就是最好的證明。而在上述不同步驟里,如果某些現(xiàn)有模型效果不錯,就可以直接打包成工具讓智能體去調(diào)用;效果不好的模型,就用更好的大模型換掉它。最終它就是一個由智能體串起來的、能管診斷也能管康復(fù)的全鏈路系統(tǒng)。理想情況下,醫(yī)生所需要做的每一步,我們的模型都能輔助完成。但它永遠(yuǎn)只是醫(yī)生的幫手,不會去取代醫(yī)生,因為最后的決定必須由醫(yī)生來拍板。

      DeepTech:面向醫(yī)生群體和面向科研人員群體,是做了兩個不同的模型嗎?

      楊紅霞:對,肯定是。訓(xùn)練領(lǐng)域模型就和培養(yǎng)專家一樣。醫(yī)療領(lǐng)域的模型一般分為幾個級別:L0 是指最底層的通用大模型,就跟人們上學(xué)一樣 L0 通用模型就像讀本科學(xué)的是通用知識;L1 是能夠進(jìn)行持續(xù)預(yù)訓(xùn)練的模型,這類模型在學(xué)習(xí)知識時主要依靠預(yù)訓(xùn)練,不是靠后面的后訓(xùn)練,即依托海量的通用醫(yī)療數(shù)據(jù)和教科書知識,通過持續(xù)預(yù)訓(xùn)練往模型里灌。對標(biāo)培養(yǎng)醫(yī)生的話,就好比讓他完成八年制博士的所有課程學(xué)習(xí);L2 模型要做指令微調(diào)和強(qiáng)化學(xué)習(xí),這屬于后期訓(xùn)練的范疇,主要是給模型灌規(guī)則,對標(biāo)培養(yǎng)醫(yī)生的話就是去進(jìn)行臨床實(shí)習(xí),要不斷接受正反饋和負(fù)反饋;L3 是基于提示詞的階段,因為模型已經(jīng)掌握知識和規(guī)則,并非所有事都得重新訓(xùn)練一遍,就好比醫(yī)生完成實(shí)習(xí)后正式到某個科室定科工作,這時你直接下指令模型就能給出結(jié)果。因此,訓(xùn)練一個領(lǐng)域大模型,和培養(yǎng)一名專家的路徑完全一樣。而要改做深度科研的時候,L0 仍是通用的基礎(chǔ)模型;L1 就要給它“喂”大量論文,讓它成為該領(lǐng)域的專家;L2 和 L3 也是進(jìn)行微調(diào)和提示工程。

      DeepTech:寫論文比較難以實(shí)現(xiàn),怎么讓它變得容易實(shí)現(xiàn)?

      楊紅霞:論文寫作確實(shí)比較難以實(shí)現(xiàn),但是我們不光知道怎么干,而且已經(jīng)把東西做出來了。最好的證明就是我們用這套方法產(chǎn)出的論文,已經(jīng)在一些頂級會議上發(fā)表。現(xiàn)在這些基礎(chǔ)大模型,你讓它自己規(guī)劃一個復(fù)雜任務(wù)是不太行的,所以直接讓 GPT-4 這類模型去干一件復(fù)雜事兒它往往干不好。而智能體干的事,就是把任何復(fù)雜任務(wù)都自動拆成一步一步的。在每一步不管你用什么方式調(diào)模型,最后這整個系統(tǒng)其實(shí)就是多個智能體在一起協(xié)作。如前所述,我們通過持續(xù)訓(xùn)練已經(jīng)把各領(lǐng)域的海量論文“喂”給模型。但是,我需要強(qiáng)調(diào)一下,這不是要替代學(xué)生,學(xué)生最后還是得跟它進(jìn)行很多互動才能完成論文撰寫。

      DeepTech:學(xué)術(shù)界在呼吁盡量不要用 AI 寫論文,在做這個方向的時候有考慮過這些顧慮嗎?

      楊紅霞:像 Deep Research 這種工具,谷歌、Anthropic 和 OpenAI 他們都盯得挺緊。但得再說一次,這不是替人寫論文,是給人幫忙的。而且像愛思唯爾這種期刊都規(guī)定 AI 寫的內(nèi)容不能超過 25%。我們的工具跟 Deep Research 基本一樣。我覺得它最能幫學(xué)生的地方是激發(fā)寫作靈感——比如很多學(xué)生只有個大概想法,不知道具體該怎么收窄到一個題目上,這時工具就能派上用場。要是放以前,你得去找老師聊,但老師不可能天天泡在實(shí)驗室陪著學(xué)生。而有的學(xué)生盡管已經(jīng)讀了不少文獻(xiàn),但是思路依舊不太清晰,要么就是漏了一些重要文獻(xiàn)。這時跟我們的模型聊一聊,就能幫你把這些給補(bǔ)上,從而幫助他們寫出更好的論文。畢竟讀博的時候?qū)煵豢赡茈S時盯著你,尤其是剛開始的博士生有這么一個工具,他們就能更容易上手。

      DeepTech:做企業(yè)和做老師做高管不太一樣,有哪些需要快速補(bǔ)足的非技術(shù)能力嗎?

      楊紅霞:其實(shí)我覺得在學(xué)校、在公司、和在初創(chuàng)團(tuán)隊沒啥本質(zhì)區(qū)別,就是找到一幫理念特別合、能力特別牛的人,一起干一件有挑戰(zhàn)的事。我們現(xiàn)在的心思全在技術(shù)上,我一直跟同事說,咱們要成為 OpenAI 那樣的公司。OpenAI 于 2015 年成立,直到 2022 年 10 月之前壓根沒管商業(yè)化,就是純粹搞技術(shù)。雖然困難很多,但是這幫人特別堅定。當(dāng)你的技術(shù)做到別人完全追不上的時候,商業(yè)化是水到渠成的事,而我們現(xiàn)在就在走這條路。比如,同樣是訓(xùn)練一個模型,同樣是效果跟別人一樣好,但是如果我的 FP4 低比特訓(xùn)練能成功(現(xiàn)在全球沒人能做到 FP4),那么我的訓(xùn)練成本就只有別人的 1/4。到了那一步,商業(yè)化怎么可能不成功?

      DeepTech:這個因素是你從醫(yī)療還有寫論文這兩個競爭非常激烈的領(lǐng)域中脫穎而出的主要原因嗎?

      楊紅霞:是的。我再強(qiáng)調(diào)一下:我們做醫(yī)療和 Deep Research,其實(shí)就是想拿它們來驗證整個技術(shù)框架,比如驗證低比特訓(xùn)練和模型融合的落地情況,看看在大家公認(rèn)的超難任務(wù)里到底表現(xiàn)如何?,F(xiàn)在大模型的能力比以前的深度學(xué)習(xí)強(qiáng)太多,但如果只讓它聊天就根本試不出真本事。像癌癥全鏈路診斷和寫論文這種極限任務(wù),只有做得特別好才能證明你的模型是真厲害。所以我們選這兩個領(lǐng)域,說白了就是拿出來秀一下肌肉。這其實(shí)也是我一直相信的道理:不管在大廠還是學(xué)校,只要你技術(shù)能做到斷崖式領(lǐng)先,你的優(yōu)勢就是絕對的。

      DeepTech:但是投資人愿意一直耐心等下去嗎?

      楊紅霞:我覺得他們特別積極。像 Thinking Machine Lab 目前只有20人,剛開始說要做這個方向就融資 20 億美金、估值 120 億美金。我們比他們早一年就開始做這件事情,而且以極低成本迅速完成多個扎實(shí)發(fā)布。另一方面,我們這輪 Pre-A 根本不是自己推的,是上一輪領(lǐng)投的國際大 VC 主動發(fā)起的?,F(xiàn)在都超了,但是還有人在不斷進(jìn)來。

      DeepTech:聽起來很激勵人。那目前你又是多個角色——科學(xué)家、教授還有創(chuàng)始人,是怎么實(shí)現(xiàn)這些角色的切換的呢?

      楊紅霞:我的心思還是全在技術(shù)上。不管是在學(xué)校帶學(xué)生,還是在公司(我雖然是創(chuàng)始人,但 title 是首席科學(xué)家),主要干的都是技術(shù)突破的事。后續(xù)商業(yè)化的事,可能會請我之前在大廠管過核心 AI 產(chǎn)品的朋友來搞定。我自己還是想學(xué) OpenAI,在前七八年里只埋頭搞技術(shù)。我知道這很難,但現(xiàn)在我們就是一門心思把技術(shù)做到比別人強(qiáng)一大截。我也已經(jīng)說服了投資人們,只要技術(shù)有代差,商業(yè)上就一定行得通,所以他們現(xiàn)在都很有耐心。我們進(jìn)展其實(shí)挺快的,從 2025 年 7 月中旬就我一個人,到現(xiàn)在快 40 人了,一邊招人一邊培養(yǎng),還能拿出這么多成果,大家還是挺滿意的。

      DeepTech:目前公司有 40 多人,這是公司團(tuán)隊加學(xué)術(shù)團(tuán)隊的總?cè)藬?shù)嗎?

      楊紅霞:是的,所有的加起來。

      DeepTech:所以是人才復(fù)用的?

      楊紅霞:我們做的就是分布式生成式 AI。這個領(lǐng)域太新了,在學(xué)術(shù)界也是前沿,根本沒得抄。你看像 Thinking Machine 也是剛開始做。我們的論文能在 NeurIPS 拿最高分被接收,說明技術(shù)上是塊硬骨頭,必須靠團(tuán)隊自己不斷往前突破。

      關(guān)于行業(yè)洞見:不是 Scaling Law 沒了,是互聯(lián)網(wǎng)數(shù)據(jù)已快被挖沒

      DeepTech:Scaling Law 的邊際效應(yīng)是已經(jīng)到頭了嗎?

      楊紅霞:原來的縮放定律是說預(yù)訓(xùn)練,后來大家不怎么提了,不是因為定律沒了,是互聯(lián)網(wǎng)上的數(shù)據(jù)基本快被挖得完。但其實(shí),現(xiàn)在的線下數(shù)據(jù)非常多,比如我們合作的醫(yī)院,單單一家醫(yī)院就有幾個 PB 的數(shù)據(jù)(1PB=1000 個 TB)。所以只要把這些數(shù)據(jù)用上,縮放定律照樣成立。因此,還是得在數(shù)據(jù)、算力、參數(shù)這三樣?xùn)|西上繼續(xù)做高質(zhì)量的增加。

      DeepTech:當(dāng)前 AI 的訓(xùn)練成本和推理成本都比較高,這會成為 AI 普惠的一個障礙嗎?

      楊紅霞:所以低比特肯定是未來。FP8 就是個例子:等模型訓(xùn)好了再去做量化(現(xiàn)在很多框架都這么干),精度轉(zhuǎn)化帶來的誤差會嚴(yán)重?fù)p傷它的推理能力。但如果你從預(yù)訓(xùn)練開始就用低比特,后面根本不用再做任何處理,自然就保留了所有能力。再加上它能大幅削減訓(xùn)練成本,而訓(xùn)練才是吃算力的大頭,所以低比特一定是未來。

      DeepTech:關(guān)于開源閉源很多人都在討論。會更認(rèn)可開源嗎?

      楊紅霞:我當(dāng)然認(rèn)同開源。你看低比特這件事,OpenAI 和 DeepSeek 做出來了,但他們沒開源,所以現(xiàn)在做大模型還是有點(diǎn)像“有錢人的游戲”。我們把整個訓(xùn)練框架都進(jìn)行開源,就是希望它能變得更加普惠。而像低比特訓(xùn)練、分布式 AI 這些新方向,你想讓社區(qū)真正把這個方向的火點(diǎn)起來,一開始就得徹底開源。

      DeepTech:那現(xiàn)在足以去判斷將來 AI 的主流是開源還是閉源嗎?

      楊紅霞:我覺得每個人的選擇不一樣,反正我個人覺得開源挺重要。開源能夠天然地帶來更為廣泛的傳播度,也能讓更多人參與到生態(tài)共建中。比如,正是開源讓操作系統(tǒng)得到了更廣泛的應(yīng)用。

      關(guān)于個人成長:年輕時戰(zhàn)勝的重大挑戰(zhàn),會內(nèi)化為“一定能搞定”的信心

      DeepTech:成長的過程中有沒有哪個人對自己影響比較大?

      楊紅霞:有許多人影響了我,其中我的博士生導(dǎo)師——COPSS 獎(統(tǒng)計學(xué)界的諾貝爾獎)得主 David Dunson 教授尤為關(guān)鍵。他是數(shù)學(xué)、統(tǒng)計和機(jī)器學(xué)習(xí)三個系的教授,我是他的第一個博士生。這段經(jīng)歷極具挑戰(zhàn)。他極其聰明又要求嚴(yán)苛,而我當(dāng)時僅是剛畢業(yè)的本科生,毫無論文寫作經(jīng)驗,因此初期壓力巨大,甚至每周都害怕與他見面。盡管他不斷地提出挑戰(zhàn),卻也給予了最到位的指導(dǎo)。在那三年里,我經(jīng)常需要夜里 12 點(diǎn)休息設(shè)鬧鐘凌晨 4 點(diǎn)起來編程,過程雖不輕松,但我最終僅用三年便博士畢業(yè),創(chuàng)造了杜克大學(xué)直博的最快記錄。這段經(jīng)歷給我的人生留下了深刻的烙印,它讓我深信人生沒有過不去的坎。年輕時戰(zhàn)勝的重大挑戰(zhàn),會內(nèi)化為一種“一定能搞定”的信心,這種信心無比珍貴。

      DeepTech:從工業(yè)界到高校再到創(chuàng)業(yè),一路走來心態(tài)上有什么變化嗎?

      楊紅霞:沒啥太大變化,重心都是在做技術(shù)本身。當(dāng)然,從大廠出來到學(xué)校創(chuàng)業(yè),團(tuán)隊要從零開始搭。但我之前無論在哪兒都是從零干起的,都經(jīng)歷過從零到一的過程。比如我以前做推薦系統(tǒng),后來轉(zhuǎn)做大模型,團(tuán)隊也是重新建的。

      DeepTech:跨界期間有遇到過一些困難嗎?

      楊紅霞:困難嘛,總是啥樣的都有。但我覺得,最重要的是保持對技術(shù)的純粹的追求,這才是能夠不斷突破的原因。反正兵來將擋、水來土掩,干就完了。只要我們真心相信現(xiàn)在搞的技術(shù)能成大事,那每一點(diǎn)滴技術(shù)上的進(jìn)步,都會讓人覺得特別開心。

      DeepTech:有沒有因為學(xué)術(shù)界相對的慢,給你了一些思考空間或者科研靈感?

      楊紅霞:實(shí)話講,我們真沒有。我們整個節(jié)奏其實(shí)很像互聯(lián)網(wǎng)公司,包括對我的學(xué)生也是這樣。我當(dāng)時就跟他們說,你要想來讀博,最好先來我這實(shí)習(xí)一下,你來感受一下這個節(jié)奏,看看適不適應(yīng)。所以不要覺得我現(xiàn)在比在大廠輕松,不是這樣的。

      DeepTech:所以現(xiàn)在帶博士生和以前在大廠帶工程師沒有太大區(qū)別是嗎?

      楊紅霞:對,就是一心做最頂尖的技術(shù)。計算機(jī)和 AI 領(lǐng)域的研究本身就需要和業(yè)界緊密結(jié)合,我現(xiàn)在香港理工大學(xué)教了一門大模型的博士生課程,每次報名比如 80 個人的課,后面的候補(bǔ)名單都快 100 人了。

      DeepTech:新一代的 00 后的學(xué)生,有什么讓你印象深刻的特質(zhì)嗎?

      楊紅霞:我選人標(biāo)準(zhǔn)主要有三個。第一是代碼能力必須非常強(qiáng),我設(shè)置了一個很嚴(yán)格的代碼測試作為門檻。第二是候選人可以沒有大模型背景,但必須有足夠的好奇心。我本人就是從數(shù)學(xué)、統(tǒng)計轉(zhuǎn)到機(jī)器學(xué)習(xí),再到深度學(xué)習(xí)和大模型的,因此好奇心至關(guān)重要。第三是必須擁有強(qiáng)大的合作意識,因為做大模型需要集團(tuán)軍作戰(zhàn)。對于 00 后的年輕學(xué)生,他們與我們這一代人的成長背景固然不同,但關(guān)鍵在于能否激發(fā)他們的興趣和認(rèn)同感。一旦他們找到自我價值,就會非常投入和吃苦耐勞,本質(zhì)上和大家并沒有區(qū)別。

      DeepTech:你通過哪些方式確保自己始終站在知識和趨勢的前沿位置?

      楊紅霞:第一,你一定要找一幫特別牛的小伙伴一起干。他們會自己不斷往前沖,帶著你一起迭代。和最優(yōu)秀的人工作,成長速度肯定飛快。第二,因為我們做大模型特別早,而且做得還不錯,現(xiàn)在中美各大廠包括 OpenAI、字節(jié)、阿里這些,都有我以前的隊員或者朋友,我們經(jīng)常會進(jìn)行交流。

      DeepTech:高強(qiáng)度的工作和個人的生活休閑是如何平衡的?

      楊紅霞:實(shí)話跟你說,因為我現(xiàn)在跟你聊天就沒辦法去看我小孩。不過好在有我爸媽一直幫我?guī)е?。我在香港,這邊有個好處——全球不是只有六家迪士尼嘛,中國就上海和香港有迪士尼。我的小孩才三歲多,我們在周末經(jīng)常抽一天帶他去迪士尼,我自己也放松一下,我覺得挺不錯的。

      運(yùn)營/排版:何晨龍

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      荷蘭政府花200億挽留無效,光刻機(jī)巨頭ASML為何執(zhí)意從老家搬走?

      荷蘭政府花200億挽留無效,光刻機(jī)巨頭ASML為何執(zhí)意從老家搬走?

      凡知
      2025-11-06 11:38:13
      一場3-1誕生大黑馬:歐戰(zhàn)4場全勝,力壓維拉羅馬,排名第1

      一場3-1誕生大黑馬:歐戰(zhàn)4場全勝,力壓維拉羅馬,排名第1

      足球狗說
      2025-11-07 07:42:42
      邵佳一身邊的德國師父,國足需要他

      邵佳一身邊的德國師父,國足需要他

      懂球帝
      2025-11-06 17:40:14
      7個行業(yè),真的頂不住了!裁員、倒閉、轉(zhuǎn)行潮正全面爆發(fā)

      7個行業(yè),真的頂不住了!裁員、倒閉、轉(zhuǎn)行潮正全面爆發(fā)

      搬磚營Z
      2025-10-21 14:05:11
      “深刻認(rèn)識新形勢”!省委書記赴一線了解情況,明確突圍方向

      “深刻認(rèn)識新形勢”!省委書記赴一線了解情況,明確突圍方向

      政知新媒體
      2025-11-06 22:21:03
      王陽明悟道:人這一生,所謂的開悟,不過是想通了3件事

      王陽明悟道:人這一生,所謂的開悟,不過是想通了3件事

      金沛的國學(xué)筆記
      2025-11-04 15:30:00
      瓜帥撿到寶了!曼城新援8場獨(dú)造6球 轉(zhuǎn)會費(fèi)僅花3650萬

      瓜帥撿到寶了!曼城新援8場獨(dú)造6球 轉(zhuǎn)會費(fèi)僅花3650萬

      球事百科吖
      2025-11-06 18:19:05
      美軍航母不行了,怪中國衛(wèi)星?美國要部署新電子干擾武器

      美軍航母不行了,怪中國衛(wèi)星?美國要部署新電子干擾武器

      兵國大事
      2025-11-06 00:05:14
      滬上皇秦奮獨(dú)自在上海吃創(chuàng)意菜,37歲依然追逐時尚雙眼無神有點(diǎn)呆

      滬上皇秦奮獨(dú)自在上海吃創(chuàng)意菜,37歲依然追逐時尚雙眼無神有點(diǎn)呆

      小娛樂悠悠
      2025-11-06 15:12:07
      韋神都很難與她同框,北大女?dāng)?shù)學(xué)家又拿獎了,她到底有多神秘?

      韋神都很難與她同框,北大女?dāng)?shù)學(xué)家又拿獎了,她到底有多神秘?

      暖心萌阿菇?jīng)?/span>
      2025-11-06 04:28:05
      23分16板10助!就在今天,4項前無古人的NBA紀(jì)錄被威少達(dá)成了

      23分16板10助!就在今天,4項前無古人的NBA紀(jì)錄被威少達(dá)成了

      世界體育圈
      2025-11-06 14:29:13
      演員陳龍新身份曝光!原來是上影劇團(tuán)副團(tuán)長,事業(yè)低調(diào)深藏不露

      演員陳龍新身份曝光!原來是上影劇團(tuán)副團(tuán)長,事業(yè)低調(diào)深藏不露

      楓塵余往逝
      2025-11-06 05:27:22
      深夜,芯片大消息!巨頭直線拉升!

      深夜,芯片大消息!巨頭直線拉升!

      證券時報
      2025-11-07 00:03:03
      ESPN:伊薩洛當(dāng)著全隊指出了莫蘭特缺乏努力和領(lǐng)導(dǎo)力的問題

      ESPN:伊薩洛當(dāng)著全隊指出了莫蘭特缺乏努力和領(lǐng)導(dǎo)力的問題

      北青網(wǎng)-北京青年報
      2025-11-07 07:47:02
      風(fēng)雨之夜托孤,歐洲在中國“備份德國”,何其悲愴壯烈!

      風(fēng)雨之夜托孤,歐洲在中國“備份德國”,何其悲愴壯烈!

      卷史
      2025-11-06 08:44:25
      網(wǎng)傳相聲表演要備案?只聽正能量相聲,要守規(guī)矩笑,不能現(xiàn)掛?

      網(wǎng)傳相聲表演要備案?只聽正能量相聲,要守規(guī)矩笑,不能現(xiàn)掛?

      眼光很亮
      2025-11-05 09:46:00
      你坐火車時遇到哪些奇葩經(jīng)歷?網(wǎng)友:對,人間煙火氣最令人著迷

      你坐火車時遇到哪些奇葩經(jīng)歷?網(wǎng)友:對,人間煙火氣最令人著迷

      帶你感受人間冷暖
      2025-11-06 00:05:14
      亞冠激烈沖突!張玉寧遭“胯下之辱”,法比奧暴怒,6人互相推搡

      亞冠激烈沖突!張玉寧遭“胯下之辱”,法比奧暴怒,6人互相推搡

      奧拜爾
      2025-11-06 21:06:17
      一個十分殘酷的事實(shí):國產(chǎn)數(shù)據(jù)庫,國產(chǎn)系統(tǒng),90%基于美國開源改造

      一個十分殘酷的事實(shí):國產(chǎn)數(shù)據(jù)庫,國產(chǎn)系統(tǒng),90%基于美國開源改造

      侃故事的阿慶
      2025-11-06 06:06:17
      浦東嘉里中心偶遇奚夢瑤,她個子好高像巨人一樣但長相不是很漂亮

      浦東嘉里中心偶遇奚夢瑤,她個子好高像巨人一樣但長相不是很漂亮

      鄉(xiāng)野小珥
      2025-11-07 00:05:57
      2025-11-07 08:03:00
      DeepTech深科技 incentive-icons
      DeepTech深科技
      麻省理工科技評論獨(dú)家合作
      15827文章數(shù) 514270關(guān)注度
      往期回顧 全部

      財經(jīng)要聞

      南銀法巴加速發(fā)展背后:資金饑渴癥待解

      頭條要聞

      "一鍵投誠"APP在臺灣引熱議 臺當(dāng)局破防

      頭條要聞

      "一鍵投誠"APP在臺灣引熱議 臺當(dāng)局破防

      體育要聞

      送走兩位全明星,公牛成了東部第一

      娛樂要聞

      “黑料纏身”的白百何 誰給她的勇氣?

      科技要聞

      小鵬機(jī)器人里藏真人?何小鵬發(fā)一鏡到底視頻

      汽車要聞

      是我眼花了么?怎么大猩猩都來參加新車發(fā)布了?

      態(tài)度原創(chuàng)

      親子
      教育
      時尚
      游戲
      軍事航空

      親子要聞

      讓寶寶少咳嗽、讓孩子晚近視、為罕見病早行動 進(jìn)博展商交出兒童健康民生答卷

      教育要聞

      假如你11月才備考四六級覺得來不及

      大衣別這么穿,顯黑又顯胖!

      夢幻西游風(fēng)少逆天預(yù)判助寶哥團(tuán)隊拿狀元,歐皇鑒定130頭連出極品

      軍事要聞

      美軍兩架B-52轟炸機(jī)接近委內(nèi)瑞拉海岸

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 国产精品伦人一久二久三久| 两个人日本www免费版| 国产av亚洲精品ai换脸电影| 久久天天躁狠狠躁夜夜2020老熟妇 | 国产91麻豆精品成人区| 国产免费福利网站| 人妻丝袜AV中文系列先锋影音| 日韩精品 在线一区二区| 深夜视频国产在线观看| 成人福利国产午夜AV免费不卡在线| gogogo高清在线播放免费| 99精品久久免费精品久久| 中文字幕在线精品国产| 国产高清视频一区二区三区| 无码国内精品久久人妻蜜桃| 亚洲产在线精品亚洲第一站一 | 国产精品人妻在线观看 | 自拍亚洲一区欧美另类| 综合在线 亚洲 成人 欧美| 国产免费高清69式视频在线观看| 国产成人无码一区二区三区在线 | 久久夜色精品国产亚洲a| 国产精品成人久久电影| 成 人色 网 站 欧美大片在线观看| 久久人人爽爽人人爽人人片av| 国产精品国产精品国产专区| 亚洲国产成熟视频在线多多| jlzz大jlzz大全免费| 亚洲熟女一区二区av| 欧美激情内射喷水高潮| 国产精品综合一区二区三区| 国产熟女一区二区三区四区| 在线观看亚洲欧美日本| 亚洲中文字幕第二十三页| 日韩人妻精品中文字幕专区| 一本加勒比hezyo无码人妻| 狠狠躁夜夜躁人人爽天天5| 亚洲精品国产av成人网| a级免费视频| 米奇亚洲国产精品思久久| 国产精品有码在线观看|