用過(guò) LLM API 的朋友一定深有體會(huì):Token 就是真金白銀。每次把結(jié)構(gòu)化數(shù)據(jù)塞進(jìn) Prompt,看著重復(fù)的字段名、冗余的引號(hào)和括號(hào)占掉大半 Token 額度,心里都在滴血——明明核心內(nèi)容沒(méi)多少,卻要為格式“買(mǎi)單”。 過(guò)去十幾年,JSON 憑借其穩(wěn)定性、跨平臺(tái)性和可讀性,成了互聯(lián)網(wǎng)數(shù)據(jù)交換的事實(shí)標(biāo)準(zhǔn)。但在 AI 時(shí)代,尤其是面對(duì)按 Token 計(jì)費(fèi)的大語(yǔ)言模型(LLM),JSON 的“啰嗦”就暴露出來(lái)了。 舉個(gè)簡(jiǎn)單例子:一個(gè)包含兩個(gè)用戶(hù)的列表,用 JSON 表示是這樣的: [{"name
國(guó)家知識(shí)產(chǎn)權(quán)局信息顯示,北京達(dá)佳互聯(lián)信息技術(shù)有限公司申請(qǐng)一項(xiàng)名為“一種模型訓(xùn)練方法、視頻超分辨率方法及相關(guān)設(shè)備”的專(zhuān)利,公開(kāi)號(hào)CN121353828A,申請(qǐng)日期為2025年10月。 專(zhuān)利摘要顯示,本公開(kāi)提供了一種模型訓(xùn)練方法、視頻超分辨率方法及相關(guān)設(shè)備,涉及計(jì)算機(jī)視覺(jué)與圖像處理技術(shù)領(lǐng)域。該訓(xùn)練方法包括:獲取低分辨率視頻序列和對(duì)應(yīng)的高分辨率視頻序列;針對(duì)每一幀低分辨率視頻幀,利用時(shí)序變分自編碼器進(jìn)行編碼得到低分辨率隱變量,基于時(shí)間連續(xù)演化函數(shù),將低分辨率隱變量在潛空間中演化為預(yù)測(cè)隱變量,然后對(duì)預(yù)
國(guó)家知識(shí)產(chǎn)權(quán)局信息顯示,百度在線網(wǎng)絡(luò)技術(shù)(北京)有限公司申請(qǐng)一項(xiàng)名為“關(guān)鍵詞生成模型的訓(xùn)練方法、關(guān)鍵詞生成方法及相關(guān)裝置”的專(zhuān)利,公開(kāi)號(hào)CN121350604A,申請(qǐng)日期為2024年7月。 專(zhuān)利摘要顯示,本公開(kāi)提供了關(guān)鍵詞生成模型的訓(xùn)練方法、關(guān)鍵詞生成方法及相關(guān)裝置,本公開(kāi)涉及人工智能技術(shù)領(lǐng)域,具體為大模型、關(guān)鍵詞生成等技術(shù)領(lǐng)域。具體實(shí)現(xiàn)方案為:基于第一類(lèi)樣本構(gòu)建第一微調(diào)指令;第一類(lèi)樣本中包括第一搜索樣本和包含至少一個(gè)第一關(guān)鍵詞的第一類(lèi)詞集;其中,基于第一搜索樣本搜索資源的情況下,第一關(guān)鍵詞表
36 氪獲悉,中信證券研報(bào)表示,具身智能大模型層面迎密集更新,UMI 數(shù)據(jù)采集的"低成本 + 高效"特性獲廣泛采納,第一人稱(chēng)視頻數(shù)據(jù)的規(guī)模化使用得到頭部廠商階段性認(rèn)證,豐富且多元的視頻學(xué)習(xí)有望充分哺育以視頻生成模型為根基的世界模型。2026 年是具身智能機(jī)器人產(chǎn)業(yè)的量產(chǎn)元年,具身模型的水平仍弱于硬件基礎(chǔ),因此其迭代進(jìn)化將更為關(guān)鍵。與此同時(shí),隨著 Skild AI、Physical Intelligence、銀河通用等玩家資本化進(jìn)程持續(xù)推進(jìn),具身模型企業(yè)的定價(jià)邏輯有望更為清晰一致。
今天是一個(gè)圖像模型,明天可能就是萬(wàn)億參數(shù)的多模態(tài)"巨獸"。 撰文|張賀飛 編輯|沈菲菲 過(guò)去兩年里,國(guó)內(nèi) AI 圈有一個(gè)心照不宣的"焦慮":國(guó)產(chǎn)算力已經(jīng)滿足了大規(guī)模的模型推理需求,可大模型的訓(xùn)練,特別是 SOTA 級(jí)模型的預(yù)訓(xùn)練,還是無(wú)法擺脫對(duì)英偉達(dá)生態(tài)的依賴(lài)。 2026 年注定是一個(gè)分水嶺。 剛登陸港股市場(chǎng)的智譜,發(fā)布了新一代圖像生成模型 GLM-Image,在文字渲染的權(quán)威榜單中達(dá)到了開(kāi)源 SOTA 水平,并在"出生證明"上寫(xiě)了一段關(guān)鍵信息:模型自回歸結(jié)構(gòu)基座基于昇騰 Atlas 800T
1月12日,千尋智能自研的具身智能模型Spirit v1.5在 RoboChallenge評(píng)測(cè)中取得綜合排名第一,在任務(wù)得分與成功率兩個(gè)維度均超越Pi0.5。 {jz:field.toptypename/} 為驗(yàn)證榜單成績(jī)來(lái)源于自研模型且真實(shí)有效,千尋智能同步開(kāi)源了Spirit v1.5的基模權(quán)重、推理代碼以及使用樣例,接受公眾與研究社區(qū)的獨(dú)立檢驗(yàn)。通過(guò)這一方式,研究者不僅可以復(fù)現(xiàn)榜單評(píng)測(cè)結(jié)果,也可以將 Spirit v1.5 作為具身智能基礎(chǔ)模型,在此基礎(chǔ)上開(kāi)展進(jìn)一步研究與創(chuàng)新。 RoboC
記者13日從南京農(nóng)業(yè)大學(xué)獲悉,該校主導(dǎo)研發(fā)出面向通用農(nóng)業(yè)領(lǐng)域的開(kāi)源垂直大語(yǔ)言模型“司農(nóng)”。 {jz:field.toptypename/} 據(jù)悉,這一模型收集了包括動(dòng)物科學(xué)、農(nóng)業(yè)經(jīng)濟(jì)管理、農(nóng)業(yè)資源與環(huán)境、園藝學(xué)、智慧農(nóng)業(yè)、動(dòng)物醫(yī)學(xué)、植物保護(hù)、作物育種等細(xì)分學(xué)科數(shù)據(jù),涵蓋了近9000冊(cè)書(shū)籍、24萬(wàn)余篇學(xué)術(shù)論文和近2萬(wàn)份政策、標(biāo)準(zhǔn),構(gòu)建了體系相對(duì)完整、質(zhì)量過(guò)硬的農(nóng)業(yè)基礎(chǔ)數(shù)據(jù)集。 目前,“司農(nóng)”大語(yǔ)言模型已發(fā)布8B和32B兩種參數(shù)規(guī)模的版本。這一開(kāi)源開(kāi)放策略,旨在降低農(nóng)業(yè)AI應(yīng)用門(mén)檻,助力廣大科研機(jī)
莊閑和 DeepSeek又上新!模型硬剛谷歌 承認(rèn)開(kāi)源與閉源差距拉大
2026-01-1712月1日晚,DeepSeek又上新了兩款新模型,DeepSeek-V3.2和DeepSeek-V3.2-Speciale,在推理能力上全球領(lǐng)先。 兩款模型有著不同的定位。DeepSeek-V3.2的目標(biāo)是平衡推理能力與輸出長(zhǎng)度,適合日常使用,例如問(wèn)答場(chǎng)景和通用智能體任務(wù)場(chǎng)景。9月底DeepSeek發(fā)布了實(shí)驗(yàn)版V3.2-Exp,此次是正式版更新。在公開(kāi)推理測(cè)試中,V3.2達(dá)到了GPT-5的水平,僅略低于谷歌的Gemini3 Pro。 DeepSeek-V3.2-Speciale則是此次的重頭戲
事情開(kāi)始變得有趣起來(lái)了。 剛剛,來(lái)自千尋智能的具身智能基礎(chǔ)模型Spirit v1.5,在RoboChallenge真機(jī)評(píng)測(cè)榜上,以總分66.09,成功率50.33%的成績(jī),超越美國(guó)明星公司 Physical Intelligence 的Pi0.5?(π 0.5),登頂榜首。 基于多樣化的預(yù)訓(xùn)練數(shù)據(jù)采集范式,Spirit v1.5 在插花、把水果放進(jìn)籃子、掛牙刷杯等多項(xiàng)任務(wù)中,拿下第一,刷新榜單紀(jì)錄。 經(jīng)此一役,Spirit v1.5 不僅是 RoboChallenge 自去年 10 月上線以來(lái)


















備案號(hào):