當(dāng)前位置:

OFweek 人工智能網(wǎng)

評(píng)測

告別文字想象!快手可靈團(tuán)隊(duì)開源VANS:實(shí)現(xiàn)從“語言描述”到“動(dòng)態(tài)演示”跨越,多項(xiàng)SOTA

作者:Junhao Cheng等 解讀:AI生成未來 亮點(diǎn)直擊 開創(chuàng)VNEP新范式:將下一代事件推理從文本描述推進(jìn)到動(dòng)態(tài)視頻演示的新階段。 提出VANS框架及核心Joint-GRPO策略:通過強(qiáng)化學(xué)習(xí)

2025-11-24 15:54 評(píng)論

NeurIPS`25 | 感嘆歲月神偷!南開&三星開源Cradle2Cane:完美破解“年齡-身份”兩難困境!

作者:Tao Liu, Dafeng Zhang等 解讀:AI生成未來 亮點(diǎn)直擊 直擊痛點(diǎn),提出“Age-ID Trade-off”: 深入分析了人臉老化任務(wù)中“年齡準(zhǔn)確性”與“身份保持”之間的內(nèi)在矛

2025-11-21 15:51 評(píng)論

Gemini 3 自述:我不是要替代人類,我是為了終結(jié)平庸

來源:@首席數(shù)智官 在硅谷的計(jì)算機(jī)歷史博物館里,靜靜躺著早期的真空管和穿孔卡片。它們沉默不語,卻定義了那個(gè)時(shí)代計(jì)算的極限。 而在Google DeepMind的數(shù)據(jù)中心里,無數(shù)個(gè)TPU正在以微秒級(jí)的

2025-11-21 10:20 評(píng)論

第二彈!MIT何愷明團(tuán)隊(duì)再發(fā)重磅成果VARC:ARC原來是個(gè)視覺問題!性能匹敵人類水平

作者:Keya Hu、Kaiming He等 解讀:AI生成未來 圖 1:ARC 基準(zhǔn)(上圖)由許多不同的任務(wù)組成,其中每個(gè)任務(wù)都有少量(如 2-4 個(gè))測試樣本。本文提出了視覺 ARC (VARC)

2025-11-20 15:15 評(píng)論

新加坡國立等發(fā)布WEAVE:首個(gè)上下文交錯(cuò)式跨模態(tài)理解與生成全套解決方案

作者:Wei Chow、Jiachun Pan等 解讀:AI生成未來 亮點(diǎn)直擊 數(shù)據(jù)集創(chuàng)新:WEAVE-100k——首個(gè)面向多輪上下文感知圖像理解與生成的大規(guī)模數(shù)據(jù)集。包含10萬個(gè)樣本、37萬輪對(duì)話和

2025-11-18 15:24 評(píng)論

文生圖也會(huì)“精神分裂”?北大、字節(jié)聯(lián)手揭秘:越思考越畫錯(cuò)!并行框架終結(jié)AI“左右互搏”

作者:Ye Tian、Ling Yang等 解讀:AI生成未來 亮點(diǎn)直擊 深入的基準(zhǔn)測試與分析:ParaBench,一個(gè)新的基準(zhǔn)測試,旨在系統(tǒng)性地評(píng)估“思考感知”型圖像生成與編輯任務(wù)。它不僅關(guān)注最終生

2025-11-17 16:46 評(píng)論

一步直接封神!單步擴(kuò)散媲美250步教師模型!中科大&字節(jié)發(fā)布圖像生成“分層蒸餾術(shù)”

作者:Hanbo Cheng等 解讀:AI生成未來 亮點(diǎn)直擊 系統(tǒng)性分析與統(tǒng)一視角:對(duì)軌跡蒸餾(TD)進(jìn)行了系統(tǒng)性分析,揭示了其本質(zhì)是一種有損壓縮過程。這一視角解釋了為何TD方法雖然能有效保留全局結(jié)構(gòu)

2025-11-14 16:24 評(píng)論

視頻模型在真推理還是“演”推理?港中文等提出新基準(zhǔn)拷問:Chain-of-Frame到底是真是假?

作者:Ziyu Guo等 解讀:AI生成未來 引言 近年來,以 Veo、Sora 等為代表的視頻生成模型展現(xiàn)出驚人的生成能力,能夠合成高度逼真、時(shí)間連續(xù)的動(dòng)態(tài)畫面。這些進(jìn)展暗示,模型在視覺內(nèi)容生成之外

2025-11-13 16:00 評(píng)論

直播革命來了!StreamDiffusionV2:140億參數(shù)實(shí)時(shí)視頻飆上58FPS!伯克利&韓松團(tuán)隊(duì)等

作者:Tianrui Feng等 解讀:AI生成未來 亮點(diǎn)直擊 StreamDiffusionV2,這是一個(gè)免訓(xùn)練的流式系統(tǒng),專為視頻擴(kuò)散模型設(shè)計(jì),用于實(shí)現(xiàn)動(dòng)態(tài)交互式的視頻生成。 巧妙整合了SLO-a

2025-11-12 14:18 評(píng)論

一文講透自動(dòng)駕駛中的“點(diǎn)云”

在談及自動(dòng)駕駛感知系統(tǒng)時(shí),經(jīng)常會(huì)看到一個(gè)專業(yè)詞匯,那便是“點(diǎn)云”。作為連接物理現(xiàn)實(shí)與數(shù)字世界的橋梁,它賦予機(jī)器一種超越人類視覺的深度感知能力,讓車輛得以精確地“理解”自身在環(huán)境中的位置與周遭物體的真實(shí)

2025-11-11 14:18 評(píng)論

主題一致超越所有開源與商業(yè)模型!中科大&字節(jié)開源統(tǒng)一創(chuàng)新框架BindWeave

作者:Zhaoyang Li等 解讀:AI生成未來 亮點(diǎn)直擊 BindWeave:針對(duì)現(xiàn)有視頻生成技術(shù)在主題一致性方面的瓶頸,提出了一個(gè)專為主題一致性視頻生成設(shè)計(jì)的新型框架。 引入多模態(tài)大語言模型作為

2025-11-11 13:50 評(píng)論

頂刊TPAMI 2025!一個(gè)模型搞定所有!多模態(tài)跟蹤“全能王”UM-ODTrack橫空出世

作者:Yaozong Zheng等 解讀:AI生成未來 亮點(diǎn)直擊 1.為視覺跟蹤領(lǐng)域提供了首個(gè)通用的視頻級(jí)模態(tài)感知跟蹤模型。UM-ODTrack?僅需訓(xùn)練一次,即可使用相同的架構(gòu)和參數(shù)實(shí)現(xiàn)多任務(wù)推理,

2025-11-10 16:40 評(píng)論

好聽、好用、好安全,海康威視打造全套網(wǎng)絡(luò)音頻系統(tǒng)

你能想象嗎?在數(shù)字化技術(shù)、網(wǎng)絡(luò)技術(shù)席卷全球的今天,會(huì)議音頻與擴(kuò)聲系統(tǒng)竟然還大量采用模擬信號(hào)技術(shù)。然而這種誕生于上世紀(jì)的音頻技術(shù),正面臨“三重困境”: 首先,信號(hào)裸奔。模擬系統(tǒng)通過模擬信號(hào)傳輸,像天線一

2025-11-07 16:11 評(píng)論

首個(gè)基于LLM的開源音頻大模型!階躍星辰重磅開源Step-Audio-EditX:P聲音如此簡單!

作者:Chao Yan等 解讀:AI生成未來 亮點(diǎn)直擊 首個(gè)開源的 LLM 音頻編輯模型:Step-Audio-EditX,首個(gè)基于大語言模型(LLM)的開源音頻模型,不僅擅長表現(xiàn)力豐富和可迭代的音頻

2025-11-07 14:54 評(píng)論

SLAM在自動(dòng)駕駛中起到什么作用?

在談及自動(dòng)駕駛時(shí),經(jīng)常會(huì)聽SLAM這項(xiàng)技術(shù)。SLAM,即“Simultaneous Localization And Mapping”的縮寫,中文稱為“同時(shí)定位與建圖”。SLAM可以解決一個(gè)非常關(guān)鍵的

2025-11-07 10:22 評(píng)論

旅行Agent評(píng)測:通義千問VS攜程AIVS豆包

今時(shí)不同往日,剛剛過去的2025年十一假期,可以稱得上是AI時(shí)代的第一個(gè)十一假期。 一個(gè)全新的概念已經(jīng)浮出水面:旅行Agent(AI旅行助手)。 各大平臺(tái)紛紛開始把AI應(yīng)用于旅行上,無論是規(guī)劃行程、提

小鵬Robotaxi和IRON發(fā)布:物理AI“安全大考”才剛剛開始

“當(dāng) AI 從屏幕里的算法,變成能幫你開門、載你通勤的‘物理伙伴’,安全和智能哪個(gè)該優(yōu)先?”11 月 5 日小鵬科技日的開場提問,把這場技術(shù)發(fā)布會(huì)從 “參數(shù)秀” 拉回了普通人的生活場景 —— 當(dāng)天拋出

2025-11-06 10:26 評(píng)論

追覓萬元掃拖機(jī)器人怎么樣?實(shí)測太能打,換拖布不是噱頭

萬元掃拖機(jī)器人竟能如此全面? 你有想象過,一萬塊的掃拖洗一體機(jī)器人應(yīng)該是什么樣的嗎? 要雷科技說,如果掃拖洗一體機(jī)器人要賣到這個(gè)價(jià)位,它一定是集各種尖端科技于一身的,擁有其它掃拖洗一體機(jī)器人所沒有的功

DeepSeek、千問、混元、文心、Kimi與智譜,六大國產(chǎn)大模型,誰是最強(qiáng)“金融分析師”?|錦緞評(píng)測

本文系基于公開資料撰寫,僅作為信息交流之用,不構(gòu)成任何投資建議。 每當(dāng)我們翻閱財(cái)報(bào)時(shí),可能只想或許關(guān)鍵的財(cái)務(wù)信息,但總是受到財(cái)報(bào)中紛繁復(fù)雜的業(yè)務(wù)表述、冗長的管理層發(fā)言的干擾,需要耗費(fèi)大量精力去甄別有用

國產(chǎn)視頻大模型大橫評(píng):可靈、即夢不分仲伯,表現(xiàn)最差的竟是它?

視頻大模型能圓我們的導(dǎo)演夢? 視頻生成大模型,能幫助我們成為視頻創(chuàng)作者嗎? 前段時(shí)間,AI歌手Yuri火爆全網(wǎng),不少網(wǎng)友驚嘆AI大模型生成的視頻居然真假難辨,口型和聲音近乎完美同步。完全由AI創(chuàng)作

上一頁  1  2  3 4 5 6 7  下一頁

資訊訂閱

粵公網(wǎng)安備 44030502002758號(hào)