<blockquote id="ue9b1"></blockquote>
    
    

    <style id="ue9b1"></style>
      <sub id="ue9b1"><p id="ue9b1"><form id="ue9b1"></form></p></sub>

      <strong id="ue9b1"><button id="ue9b1"><mark id="ue9b1"></mark></button></strong>
      成年午夜性影院,下面一进一出好爽视频,国产无遮挡又黄又爽又色,国产精品爽爽v在线观看无码,国产人妻久久精品一区二区三区,国产伦精品一区二区三区免费迷,国产欧美精品一区二区三区,日韩精品一区二区三区视频
      網易首頁 > 網易號 > 正文 申請入駐

      剛剛!Kimi Linear橫空出世,全新注意力架構:1M長文本解碼速度飆升6.3倍,KV緩存砍掉75%

      0
      分享至


      月之暗面剛剛推出了一個非常牛的全新的注意力架構Kimi Linear,有望成為下一代Agent LLM的基石技術。月之暗面已經放出了技術報告《KIMI LINEAR:一種高表達力且高效的注意力結構》并開源了核心代碼,注意不是水論文,而是已經在內部得到嚴格驗證

      技術報告:

      https://github.com/MoonshotAI/Kimi-Linear/blob/master/tech_report.pdf


      簡單來說月之暗面推出了名為 Kimi Linear 的新型混合線性注意力架構,核心目標是解決當前LLMs在處理長序列任務時面臨的計算效率和性能瓶頸。研究團隊首次證明,在包括短上下文、長上下文和強化學習等多種場景的公平比較下,Kimi Linear 的性能全面超越了傳統的full attention機制

      Kimi Linear架構的核心是 Kimi Delta Attention (KDA),一種表達能力更強的線性注意力模塊,通過更精細的門控機制實現了對循環神經網絡有限狀態記憶的有效利用。最終,Kimi Linear 模型不僅在各項任務上取得了更優異的性能,還在效率上實現了巨大突破:與full attention模型相比,能將 Key-Value (KV) 緩存的使用量減少高達 75%,并在處理百萬級別的長下文時,實現高達 6 倍的解碼吞吐量提升。這表明 Kimi Linear 可以作為全注意力架構的“即插即用”替代品,在提升性能的同時顯著增強了效率

      按照kimi官方推文的的說法,這代表:

      以代理為導向的注意力機制的未來已經到來!The future of agentic-oriented attention is here!

      以下是報告詳細解讀:

      先看看當前的困境

      隨著LLMs朝著更強大的智能體方向發展,它們在推理過程中的計算需求,尤其是在長程推理和強化學習場景下,正成為一個核心瓶頸。在這些場景中,模型需要處理冗長的交互歷史、工具使用記錄以及復雜的決策空間,這對底層架構的效率提出了嚴峻挑戰

      傳統的 Transformer 模型依賴于標準的 softmax 注意力機制,這一機制雖然效果強大,但存在兩個根本性的效率問題:

      二次方時間復雜度:注意力分數的計算與序列長度的平方成正比。這意味著當文本長度從 1000 增加到 1,000,000 時,計算量會增加一百萬倍,這在計算上是極其昂貴的

      線性增長的 KV 緩存:在自回歸生成(解碼)過程中,模型需要緩存過去所有 token 的鍵(Key)和值(Value),這個緩存的大小與序列長度成線性關系。對于百萬級別的長文本,KV 緩存會消耗掉大量的顯存,限制了模型的吞吐量和并發處理能力,使得實時交互變得困難

      為了解決這些問題,研究人員們將目光投向了線性注意力(Linear Attention)。線性注意力通過數學變換,避免了直接計算龐大的注意力矩陣,從而將計算復雜度從二次方降低到線性。然而,這種效率的提升往往伴隨著模型表達能力的犧牲,導致其在語言建模任務上的性能長期落后于 softmax 注意力,即便是在短序列上也是如此

      近年來,線性注意力的研究取得了顯著進展,主要源于兩個關鍵創新:

      門控或衰減機制 (gating or decay mechanisms):類似于 RNN 中的門控單元,該機制允許模型動態地決定保留或遺忘歷史信息,增強了對上下文的控制能力

      增量法則 (delta rule):這一概念源于在線學習,它將注意力狀態的更新過程重新解釋為一個在重構損失上的在線梯度下降。這使得模型能夠將注意力狀態(即一個可學習的關聯記憶)持續地向新的鍵值對映射進行修正,從而穩定了學習過程并提升了性能。

      這些進步使得線性注意力的性能越來越接近 softmax 注意力。但純粹的線性結構由于其有限的狀態容量,在需要精確檢索長序列中特定信息的任務上仍然面臨理論上的挑戰。因此,混合架構(Hybrid architectures)應運而生,它將少量的全局注意力層(通常是標準的 softmax 注意力)與大量的線性注意力層結合起來,試圖在模型質量和計算效率之間找到一個實用的平衡點。盡管如此,之前的混合模型往往規模有限,或者缺乏在多樣化基準上的全面評估

      真正的挑戰依然存在:如何設計一個既能匹配甚至超越全注意力模型性能,又能同時在速度和內存上實現顯著效率提升的注意力架構?這正是 Kimi Linear 誕生的背景,它旨在成為下一代高強度解碼、智能體式 LLM 的基石

      Kimi Linear 的架構設計:一種精巧的混合模式

      Kimi Linear 的核心是一種精心設計的混合架構,它巧妙地結合了兩種不同類型的注意力層,以實現性能和效率的最佳平衡。該架構的主干遵循了之前的 Moonlight 模型的設計,并在其中融入了創新的注意力機制和混合策略


      3:1 的混合層級結構

      Kimi Linear 并沒有完全拋棄強大的全注意力機制,而是采用了一種層級交錯的混合方式。具體來說,模型中的注意力層以一個固定的3:1比例進行重復堆疊,即每三個 Kimi Delta Attention (KDA) 線性注意力層之后,會插入一個全注意力層,即多頭潛在注意力(Multi-Head Latent Attention, MLA)

      KDA 層:作為模型的主體,負責處理大部分的 token 間交互。它們是線性的,這意味著它們的計算和內存開銷不隨序列長度二次方增長,保證了模型在處理長文本時的高效率

      MLA 層:作為周期性的全局信息樞紐。這些層能夠捕捉序列中任意兩個 token 之間的依賴關系,彌補了線性注意力在長距離、精細化信息檢索上的不足。

      月之暗面團隊通過消融實驗驗證了 3:1 是一個最佳比例。例如,提高 KDA 的比例(如 7:1)雖然在訓練損失上表現相近,但在驗證集上的泛化能力會顯著下降;而降低比例(如 1:1)雖然能保持較好的泛化能力,但會犧牲推理效率。純粹的全注意力基線(0:1)表現甚至更差。因此,3:1 的配置在模型性能和計算效率之間取得了最有效的平衡。這種設計使得 Kimi Linear 能夠在長序列生成過程中,將內存和 KV 緩存使用量減少高達 75%

      為全注意力層設計的無位置編碼 (NoPE)

      一個非常引人注目的設計是,Kimi Linear 中的所有全注意力層(MLA)都不使用任何顯式的位置編碼(No Position Encoding, NoPE),例如主流的 RoPE (Rotary Position Embedding)。這一決策背后有著深刻的考量:

      1.模型將編碼位置信息和時序偏見(recency bias,即更關注最近的信息)的全部責任都交給了 KDA 層。KDA 本身的設計使其成為一個強大的位置感知算子,其作用類似于甚至強于短卷積或滑動窗口注意力(SWA)等輔助組件

      2.這種設計使得全局注意力層(MLA)可以專注于純粹的內容關聯,而 KDA 層則負責處理與位置相關的動態信息

      3.實驗結果表明,這種策略在長文本任務上表現尤為出色。相比于在全局注意力層中使用 RoPE 的版本,NoPE 設計讓模型在長距離的魯棒性和外推能力更強,因為它避免了 RoPE 中固定頻率可能導致的對訓練文本長度的過擬合

      與專家混合(MoE)的結合

      Kimi Linear 架構還結合了專家混合(Mixture-of-Experts, MoE)技術,以在不顯著增加計算成本的情況下擴展模型參數規模。在實驗中,模型總參數量為 480 億,但每個前向傳播僅激活 30 億參數(激活 256 個專家中的 8 個)。這種稀疏激活的模式進一步提升了模型的訓練和推理效率

      總而言之,Kimi Linear 的架構通過 3:1 的 KDA 與 MLA 混合比例、為 MLA 層設計的 NoPE 策略以及與 MoE 技術的結合,構建了一個在表達能力、計算效率和長文本處理能力上都極為出色的模型

      核心創新:深入解析 Kimi Delta Attention (KDA)

      Kimi Linear 架構的強大能力根植于其核心創新——Kimi Delta Attention (KDA)。KDA 是一種新型的門控線性注意力變體,它在 Gated DeltaNet (GDN) 的基礎上進行了關鍵的改進,從而實現了更精細的內存控制和更高的硬件效率。要理解 KDA,我們需要從線性注意力的演進談起

      從在線學習到門控增量法則

      線性注意力作為在線學習:線性注意力可以被看作一個持續更新的矩陣狀態,這個狀態累積了鍵值(key-value)的關聯信息。這個過程類似于在線學習,不斷用新的信息來更新一個記憶矩陣。但簡單的累積會導致狀態無限增長,舊的、無關的記憶會干擾新的信息

      DeltaNet 與重構損失:DeltaNet 將這一過程重新定義為對一個“重構損失”的在線梯度下降。簡單來說,模型不再是盲目累積信息,而是不斷地將記憶狀態S朝著能更好地重構當前值v的方向進行修正(即從k映射到v)。這個修正過程就是經典的“增量法則”(delta rule),它通過一個秩-1 矩陣更新來實現,這種結構非常適合硬件并行計算

      Gated DeltaNet (GDN) 與遺忘機制:雖然 DeltaNet 穩定了學習,但它仍然會永久保留所有關聯信息。GDN 在此基礎上引入了一個簡單的標量“遺忘門”(forget gate)α。每次更新前,整個記憶狀態S都會乘以這個α。這相當于對記憶施加了一種權重衰減(weight decay),使得模型可以遺忘過時的信息,從而提升了長文本建模的穩定性和泛化能力

      KDA 的兩大核心改進

      KDA 繼承了 GDN 的思想,但進行了兩個關鍵的、相互關聯的改進,使其表達能力和硬件效率都得到了質的飛躍。

      1.精細化的對角門控 (Fine-grained Diagonal Gating)

      標準的 GDN 使用的是一個標量(scalar)遺忘門,這意味著在一個注意力頭中,所有特征維度都以相同的速率遺忘信息。這種一刀切的方式限制了模型的表達能力。相比之下,KDA 引入了一個對角化的門控矩陣Diag(a_t),它允許每個特征通道(channel-wise)擁有自己獨立的遺忘速率

      類比 RoPE:這種精細化的控制類似于 RoPE (旋轉位置編碼) 的工作方式。RoPE 通過為不同維度分配不同的旋轉頻率來實現精細的位置信息編碼。同樣地,KDA 的通道級衰減門也賦予了模型在特征維度上進行差異化信息處理的能力,從而可以被看作是一種可學習的、數據依賴的位置編碼機制。

      解鎖 RNN 潛力:這種設計使得 KDA 能夠更精確地調控其有限的 RNN 狀態記憶,選擇性地保留關鍵信息,遺忘無關噪聲,從而在混合架構中釋放了 RNN 風格模型的潛力

      2.硬件高效的塊處理算法 (Hardware-Efficient Chunkwise Algorithm)

      引入精細化的門控雖然增強了表達能力,但也帶來了計算上的挑戰,尤其是在除法運算時容易出現數值精度問題。為了解決這個問題并最大化硬件利用率,KDA 采用了一種特制的塊處理(chunkwise)并行算法

      約束化的 DPLR 結構:從數學上看,KDA 的狀態轉移可以被視為一種特殊的對角加低秩(Diagonal-Plus-Low-Rank, DPLR)矩陣。通用的 DPLR 結構雖然表達能力強,但計算成本高且難以并行。KDA 通過巧妙的設計,將 DPLR 中的兩個低秩向量ab都與鍵k綁定,從而簡化了計算

      減少計算量:這個約束極大地優化了計算流程。相比于通用的 DPLR 公式,KDA 的算法將二級塊矩陣的計算數量從四個減少到兩個,并額外省去了三次矩陣乘法。這使得 KDA 的算子效率比標準 DPLR 提升了大約 100%

      利用 Tensor Cores:在輸出階段,KDA 采用了塊間循環(inter-block recurrent)和塊內并行(intra-block parallel)的策略,最大限度地利用現代 GPU 上的 Tensor Cores,實現了極高的矩陣乘法吞吐量。

      總而言之,KDA 通過引入通道級的精細化門控,使其成為一個強大的位置感知線性注意力模塊;同時,通過其定制的、高度優化的塊處理算法,解決了精細化門控帶來的計算挑戰,實現了卓越的硬件效率。這兩點共同構成了 Kimi Linear 架構高性能和高效率的基石

      全方位性能對決:Kimi Linear 的實證評估

      為了證明 Kimi Linear 的優越性,研究團隊進行了一系列嚴格且全面的實驗,將其與兩個強大的基線模型進行了公平對比:

      1.MLA (Multi-Head Latent Attention):一個純粹的全注意力基線模型

      2.GDN-H (Hybrid Gated DeltaNet):一個采用標準 Gated DeltaNet 的混合注意力基線模型

      所有模型都采用相同的架構、參數量(480 億總參數,30 億激活參數)和訓練設置(基于 1.4 萬億 tokens 的語料庫),以確保比較的公平性


      基礎能力測試:合成任務

      在進入評估之前,團隊首先在三個經典的合成任務上測試了 KDA 的核心能力,這些任務旨在檢驗模型在長文本場景下的記憶和檢索能力

      Palindrome (回文):要求模型將一個隨機序列逆序輸出。這對線性注意力的固定大小記憶狀態是一個巨大挑戰

      Multi Query Associative Recall (MQAR, 多查詢關聯回憶):測試模型從上下文中檢索與多個查詢相關聯的值的能力,該任務與語言建模性能高度相關

      Stack (棧操作):模擬標準的后進先出(LIFO)棧操作,考驗模型追蹤多個獨立狀態的能力。

      實驗結果顯示,隨著序列長度從 256 增加到 2048,KDA 在所有任務上都取得了最高的準確率,并且收斂速度顯著快于 GDN。這證明了 KDA 的精細化衰減門使其能夠更精確地管理記憶,選擇性地遺忘無關信息,保留關鍵內容

      短上下文性能:預訓練和指令微調

      在短上下文(short-context)的標準語言模型基準測試中,Kimi Linear 同樣展現了全面的優勢

      預訓練階段 (Pretrain results):在經過 1.4T tokens 預訓練后,Kimi Linear 在通用知識(如 HellaSwag, MMLU, BBH)、數學與代碼推理(如 GSM8K, CRUXEval)以及中文任務(如 CEval, CMMLU)等幾乎所有類別中,都一致性地優于 MLA 和 GDN-H。例如,在 MMLU-Pro 基準上,Kimi Linear 獲得了 51.0 的分數,顯著高于 MLA 的 47.2 和 GDN-H 的 47.9

      指令微調階段 (SFT results):經過相同的監督微調(SFT)后,Kimi Linear 的領先優勢得以保持。在通用任務上,它在 MMLU、BBH 和 GPQA-Diamond 等多個基準上都取得了最高分。在更具挑戰性的數學與代碼任務中,它在 AIME 2025、HMMT 2025 和 LiveCodeBench 等高難度基準上也超越了兩個基線模型

      長上下文性能:關鍵優勢領域

      長上下文(long-context)處理是 Kimi Linear 設計的核心目標,實驗結果也印證了其在該領域的卓越表現。在 128k 上下文長度的多個基準測試中:

      Kimi Linear 取得了54.5的平均分,高于 MLA (52.2) 和 GDN-H (51.2)

      在 RULER基準上,Kimi Linear 獲得了84.3的高分,領先 MLA (81.3) 和 GDN-H (80.5)

      在RepoQA上下文代碼理解任務中,它的得分也最高

      一個有趣的現象是,在長文本評估中,GDN-H 的性能下降到甚至低于 MLA,而 Kimi Linear 則穩居榜首,這進一步凸顯了 KDA 相對于標準 GDN 在長程依賴建模上的優勢

      強化學習(RL)性能

      在需要模型進行多步推理和生成長篇答案的強化學習場景中,Kimi Linear 的優勢更加明顯。在數學任務的 RL 訓練中,與 MLA 相比:

      Kimi Linear 的訓練準確率增長速度更快,與 MLA 的差距隨著訓練的進行逐漸拉大

      在測試集(如 MATH500 和 AIME 2025)上,Kimi Linear 實現了更快、更好的性能提升。這表明 Kimi Linear 在需要復雜、長程推理的生成任務中表現明顯優于全注意力模型

      效率對比:速度與內存的雙重勝利

      Kimi Linear 不僅性能更強,效率也更高

      解碼速度:在解碼階段,Kimi Linear 的優勢隨著序列長度的增加而急劇擴大。在百萬(1M)token 的上下文長度下,其單個 token 的生成時間(Time per output token, TPOT)僅為1.84ms,而全注意力 MLA 則需要11.48ms。這使得 Kimi Linear 能夠支持更大的批處理大小,最終實現了比 MLA 快6.3 倍的吞吐量


      預填充速度:在處理初始長文本的預填充階段,Kimi Linear 的速度也遠超 MLA。在 1M 長度下,其速度是 MLA 的 2.9 倍

      內存占用:由于其 3:1 的混合設計,Kimi Linear 的 KV 緩存大小僅為純 MLA 模型的約 25%,極大地節省了顯存資源

      綜合來看,Kimi Linear 在性能和效率兩個維度上都實現了對全注意力的超越,證明了其作為下一代大語言模型核心架構的巨大潛力

      經過精心設計的線性注意力(如 KDA)與全局注意力的混合架構,完全有能力在性能上超越純粹的全注意力模型。Kimi Linear 擺脫了以往線性注意力“性能稍遜但效率更高”的給大家的固有印象,首次實現了一個在性能和效率上雙贏的解決方案。其核心 KDA 模塊通過精細化的通道級門控和硬件感知的設計,展示了線性注意力在表達能力上的巨大潛力

      Kimi Linear 提出了一個有趣且有效的觀點:線性注意力層自身可以承擔起編碼位置信息的全部責任,從而解放全局注意力層,使其專注于內容層面的關聯。KDA 被詮釋為一種可學習的、數據依賴的動態位置編碼機制,這為解決傳統位置編碼(如 RoPE)在長文本外推上的局限性提供了一條新的路徑。這一設計簡化了模型架構,并增強了其在超長上下文中的魯棒性

      開源

      為了推動社區的進一步研究,Kimi Linear 團隊開源了其核心的 KDA CUDA 核函數、vLLM 的集成實現,以及預訓練和指令微調的模型檢查點

      更多細節:

      https://huggingface.co/moonshotai/Kimi-Linear-48B-A3B-Instruct

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      同學會要交8萬''入場費'',我果斷退群,隔天警察告知:昨晚班長沒了

      同學會要交8萬''入場費'',我果斷退群,隔天警察告知:昨晚班長沒了

      懸案解密檔案
      2025-10-31 15:30:25
      臺當局抗議,要求大陸允許赴陸參會,國臺辦提條件:不答應別想來

      臺當局抗議,要求大陸允許赴陸參會,國臺辦提條件:不答應別想來

      牛鍋巴小釩
      2025-11-06 04:26:56
      美聯儲,降息生變!特朗普:美股將再創新高!

      美聯儲,降息生變!特朗普:美股將再創新高!

      證券時報
      2025-11-05 23:41:06
      37歲景甜在安徽小鎮被偶遇,她打扮樸素,皮膚白皙 嬌俏可愛,好美

      37歲景甜在安徽小鎮被偶遇,她打扮樸素,皮膚白皙 嬌俏可愛,好美

      草莓解說體育
      2025-11-05 09:38:12
      施小琳會見中金公司董事長陳亮

      施小琳會見中金公司董事長陳亮

      新浪財經
      2025-11-05 21:02:05
      蔚小理時代要翻篇?新勢力銷量榜大變天!

      蔚小理時代要翻篇?新勢力銷量榜大變天!

      科技專家
      2025-11-05 17:01:22
      千島湖困局未徹底解決:鰱鳙放養60多年,“保水魚”保住了什么?

      千島湖困局未徹底解決:鰱鳙放養60多年,“保水魚”保住了什么?

      體育小柚
      2025-11-04 17:46:01
      乒壇驚天逆轉!小勒布倫0-2落后連扳3局,淘汰韓國名將晉級16強

      乒壇驚天逆轉!小勒布倫0-2落后連扳3局,淘汰韓國名將晉級16強

      郝小小看體育
      2025-11-06 03:05:19
      讓全世界開開眼!中國航天員空間站里吃燒烤,國際空間站要饞哭了

      讓全世界開開眼!中國航天員空間站里吃燒烤,國際空間站要饞哭了

      魚缸里的假山
      2025-11-04 21:57:29
      烏軍無人機精準打擊,致莫斯科大規模停電,普大帝該還手了

      烏軍無人機精準打擊,致莫斯科大規模停電,普大帝該還手了

      熱點菌本君
      2025-11-02 15:23:11
      十年后,上海必然起飛的四大板塊!

      十年后,上海必然起飛的四大板塊!

      環線房產咨詢
      2025-11-05 17:59:25
      市委書記女兒去縣財政局工作,局長處處為難她,某天書記來探班

      市委書記女兒去縣財政局工作,局長處處為難她,某天書記來探班

      秋風專欄
      2025-10-23 11:23:56
      付豪被交易?遼籃官宣,名單公布,付豪發聲,官宣決定,繼偉祝福

      付豪被交易?遼籃官宣,名單公布,付豪發聲,官宣決定,繼偉祝福

      樂聊球
      2025-11-05 10:58:30
      韓知名女歌手“透視裝”開唱疑真空上陣!韓網暴動:里面沒穿?

      韓知名女歌手“透視裝”開唱疑真空上陣!韓網暴動:里面沒穿?

      一盅情懷
      2025-11-05 16:08:53
      37歲李易峰現狀!又胖又禿顏值崩塌,性需求太大,女朋友控制不住

      37歲李易峰現狀!又胖又禿顏值崩塌,性需求太大,女朋友控制不住

      八星人
      2025-11-03 14:53:00
      藍營大洗牌!侯友宜拒交棒,洪秀柱力挺新主!

      藍營大洗牌!侯友宜拒交棒,洪秀柱力挺新主!

      放開他讓wo來
      2025-11-05 09:59:19
      西安地鐵2號線擠到爆,14號線空到閑,缺機場線路。規劃還是偏了

      西安地鐵2號線擠到爆,14號線空到閑,缺機場線路。規劃還是偏了

      晨晨星
      2025-11-06 00:16:36
      4-1!哈蘭德5連斬,歐冠歷史第一人,福登雙響搶戲,曼城主場大勝

      4-1!哈蘭德5連斬,歐冠歷史第一人,福登雙響搶戲,曼城主場大勝

      我的護球最獨特
      2025-11-06 06:08:23
      美國新兵推結果:中美開戰7天后4萬解放軍陣亡,美10多個基地損毀

      美國新兵推結果:中美開戰7天后4萬解放軍陣亡,美10多個基地損毀

      墨山看客
      2025-11-05 15:38:43
      唯一的主任醫師名額給了關系戶,我辦了離職,結果院長被領導談話

      唯一的主任醫師名額給了關系戶,我辦了離職,結果院長被領導談話

      紅豆講堂
      2025-11-04 19:20:03
      2025-11-06 06:19:00
      AI寒武紀 incentive-icons
      AI寒武紀
      專注于人工智能,科技領域
      960文章數 370關注度
      往期回顧 全部

      科技要聞

      大轉彎!特朗普再提名馬斯克盟友任NASA局長

      頭條要聞

      美國肯塔基州州長:本州進入緊急狀態

      頭條要聞

      美國肯塔基州州長:本州進入緊急狀態

      體育要聞

      贏下皇馬,會是利物浦的轉折點嗎?

      娛樂要聞

      港星林尚武突發心臟病去世

      財經要聞

      事關加快建設金融強國 中央金融辦發聲

      汽車要聞

      智己LS9入局"9系"混戰 全尺寸SUV市場迎來新變量

      態度原創

      教育
      房產
      本地
      游戲
      公開課

      教育要聞

      語言的學習,從不講捷徑

      房產要聞

      最新!海南樓市10月熱銷榜單出爐!

      本地新聞

      這屆干飯人,已經把博物館吃成了食堂

      一份游戲雙平臺玩!PS5/PC跨平臺購買標志新發現

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 国产91丝袜在线播放动漫| 成人性无码专区免费视频| 久热视频这里只有精品6| 国产成人高清在线观看视频| 延长县| 亚洲精品成人区在线观看| 九九热视频在线观看视频| 国产午夜成人久久无码一区二区 | 开心一区二区三区激情| 國產尤物AV尤物在線觀看| 老王亚洲AV综合在线观看| 欧美乱码精品一区二区三区| 大又大又粗又硬又爽少妇毛片| 成人久久精品国产亚洲av| 国产系列丝袜熟女精品视频 | 国产精品亚洲一区二区在| 少女韩国在线观看完整版免费| 宜兰县| 国产成人综合色在线观看网站| 91中文字幕一区在线| 亚洲综合91社区精品福利| 成人污视频| 国产精品视频午夜福利| 亚洲午夜香蕉久久精品| 在线精品自拍亚洲第一区| 一区二区不卡99精品日韩| 69精品丰满人妻无码视频a片| 国产免费一区二区三区在线观看| 九九色这里只有精品国产| 影音先锋人妻啪啪av资源网站| 四川丰满少妇无套内谢| 国产黄色三级三级看三级| 7777精品久久久大香线蕉| 久久永久视频| 欧美成人h亚洲综合在线观看| 国内精品无码一区二区三区 | 我和亲妺妺乱的性视频| 久久国产国内精品国语对白| 午夜福利在线观看6080| 盐源县| 亚洲最大av一区二区|