3月27日凌晨,阿里巴巴發(fā)布并開源首個(gè)端到端全模態(tài)大模型通義千問Qwen2.5-Omni-7B,可同時(shí)處理文本、圖像、音頻和視頻等多種輸入,并實(shí)時(shí)生成文本與自然語音合成輸出。在權(quán)威的多模態(tài)融合任務(wù)OmniBench等測評中,Qwen2.5-Omni刷新業(yè)界紀(jì)錄,全維度遠(yuǎn)超Google的Gemini-1.5-Pro等同類模型。Qwen2.5-Omni以接近人類的多感官方式「立體」認(rèn)知世界并與之實(shí)時(shí)交互,還能通過音視頻識別情緒,在復(fù)雜任務(wù)中進(jìn)行更智能、更自然的反饋與決策。現(xiàn)在,開發(fā)者和企業(yè)可免費(fèi)下載商用Qwen2.5-Omni,手機(jī)等終端智能硬件也可輕松部署運(yùn)行。
?

圖示 性能測評對比
?
Qwen2.5-Omni采用了通義團(tuán)隊(duì)全新首創(chuàng)的Thinker-Talker雙核架構(gòu)、Position Embedding?(位置嵌入)融合音視頻技術(shù)、位置編碼算法TMRoPE(Time-aligned Multimodal RoPE)。雙核架構(gòu)Thinker-Talker讓Qwen2.5-Omni擁有了人類的“大腦”和“發(fā)聲器”,形成了端到端的統(tǒng)一模型架構(gòu),實(shí)現(xiàn)了實(shí)時(shí)語義理解與語音生成的高效協(xié)同。具體而言,Qwen2.5-Omni支持文本、圖像、音頻和視頻等多種輸入形式,可同時(shí)感知所有模態(tài)輸入,并以流式處理方式實(shí)時(shí)生成文本與自然語音響應(yīng)。
?
得益于上述突破性創(chuàng)新技術(shù),Qwen2.5-Omni在一系列同等規(guī)模的單模態(tài)模型權(quán)威基準(zhǔn)測試中,展現(xiàn)出了全球最強(qiáng)的全模態(tài)優(yōu)異性能,其在語音理解、圖片理解、視頻理解、語音生成等領(lǐng)域的測評分?jǐn)?shù),均領(lǐng)先于專門的Audio或VL模型,且語音生成測評分?jǐn)?shù)(4.51)達(dá)到了與人類持平的能力。
?
相較于動(dòng)輒數(shù)千億參數(shù)的閉源大模型,Qwen2.5-Omni以7B的小尺寸讓全模態(tài)大模型在產(chǎn)業(yè)上的廣泛應(yīng)用成為可能。即便在手機(jī)上,也能輕松部署和應(yīng)用Qwen2.5-Omni模型。當(dāng)前,Qwen2.5-Omni已在魔搭社區(qū)和Hugging Face?同步開源,用戶也可在Qwen Chat上直接體驗(yàn)。
?
從2023年起,阿里通義團(tuán)隊(duì)就陸續(xù)開發(fā)了覆蓋0.5B、1.5B、3B、7B、14B、32B、72B、110B等參數(shù)的200多款「全尺寸」大模型,囊括文本生成模型、視覺理解/生成模型、語音理解/生成模型、文生圖及視頻模型等「全模態(tài)」,真正實(shí)現(xiàn)了讓普通用戶和企業(yè)都用得上、用得起AI大模型。截至目前,海內(nèi)外AI開源社區(qū)中千問Qwen的衍生模型數(shù)量突破10萬,超越美國Llama系列模型,是公認(rèn)的全球第一開源模型。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。
注:本文轉(zhuǎn)載自雷鋒網(wǎng),如需轉(zhuǎn)載請至雷鋒網(wǎng)官網(wǎng)申請授權(quán),轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé)。如有侵權(quán)行為,請聯(lián)系我們,我們會(huì)及時(shí)刪除。