元宇宙建設添利器 Meta強推視覺大模型 多模態AI有望加速發展
在AI大模型競賽中,Meta選擇重押視覺模型,繼推出零樣本分割一切的SAM后,扎克伯格親自官宣了重量級開源項目DINOv2。
據介紹,DINOv2是計算機視覺領域的預訓練大模型,模型參數量是10億級,采用Transformer架構,能在語義分割、圖像檢索和深度估計等方面實現自監督訓練,不需微調即可用于多種下游任務,可以被用于改善醫學成像、糧食作物生長、地圖繪制等。
DINOv2有何亮點?
主要體現在兩方面——DINOv2可以為大語言模型提供豐富的圖像特征,有助于完善多模態GPT應用;其蒸餾成小模型后效果依然優秀,便于在各種邊緣場景及本地化落地。
對于前者,Meta已表示計劃將DINOv2集成到更大、更復雜的AI系統中,作為視覺主干提供豐富的圖像特征與大型語言模型進行交互。
國盛證券分析師劉高暢表示,DINOv2能比用圖像文本對做訓練的模型得到更豐富的圖像特征,這將讓整個系統能更好地理解圖像,對多模態AI的發展起到加速作用。
值得注意的是,多模態技術還能助力游戲內容與元宇宙構造,隨著AR/VR技術的發展,未來將能構建逼真的虛擬現實。扎克伯格就強調,DINOv2可以極大地加持元宇宙的建設,讓用戶在元宇宙中的沉浸體驗更出色。
上述分析師大膽預測,1-5年內,隨著多模態的發展帶來AI泛化能力提升,通用視覺、通用機械臂、通用物流搬運機器人、行業服務機器人、真正的智能家居會進入生活。未來5-10年內,結合復雜多模態方案的大模型有望具備完備的與世界交互的能力,在通用機器人、虛擬現實等領域得到應用。
對于邊緣場景落地,簡單來說是指將大模型移植到移動端或是算力有限的場景。
運行大型的模型需要強大的硬件,這可能會限制模型在C端場景的應用,為大模型“瘦身”成了手機等移動終端運行大模型的前提,其技術路徑多樣,包括通過剪枝讓模型稀疏化、知識蒸餾對模型進行壓縮、通過權重共享來減少參數量等。
DINOv2即采用模型蒸餾的方式,將大型模型的知識壓縮為較小的模型,從而降低推理時的硬件要求。據官方介紹,Meta開源了多個不同參數規模的預訓練模型,在相同的規模下比較,DINOv2在多種測試基準的得分都能優于目前開源視覺模型中表現最好的OpenCLIP。
Meta之外,高通、華為等科技巨頭也在致力于實現AI大模型在終端的輕量化部署,谷歌、騰訊、百度等已將模型壓縮技術緊密結合移動端模型部署框架/工具。
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。