阿里達摩院推出AI框架HQTrack 可實現視頻高質量跟蹤

7月31日消息,據GitHub頁面顯示,阿里達摩院近日宣布與大連理工大學合作,推出一款名為HQTrack的AI框架。
該框架主要由視頻多目標分割器(VMOS)和掩模優(yōu)化器(MR)組成,旨在“實現對視頻中任何目標的高質量跟蹤”。研究團隊表示,HQTrack基于開源框架DeAOT、HQ-SAM,在此之上進行了一定改進,實現了“在視頻中分割各目標”的可能性。
截自微博
同時,研究團隊使用Intern-T作為特征提取器,提高框架對不同類型物體的區(qū)分能力,同時加入了一個門控傳播模塊(GPM),以便于框架在復雜環(huán)境中感知更多微小物體,生成高質量的即時目標遮罩。
據悉,在VOTS2023競賽中,HQTrack以0.615的質量得分獲得第二名,研究團隊表示,該 AI 框架可以應用于人臉識別、智能駕駛、監(jiān)控追蹤等領域,并有望在未來商業(yè)應用中落地。
圖源:HQTrack的GitHub頁面
值得一提的是,阿里云近日在國內率先推出針對Llama2全系列版本的訓練和部署方案。官方表示,歡迎所有開發(fā)者來阿里云上打造專屬大模型。
近日,Llama2大語言模型宣布開源,覆蓋70億、130億及700億參數版本。Llama2可免費用于研究場景和月活7億用戶以下的商業(yè)場景,為企業(yè)和開發(fā)者提供了大模型研究的新工具。然而,對Llama2的再訓練和部署仍存在較高門檻,尤其是針對效果更勝一籌的大尺寸版本。
截自阿里云官網
為方便開發(fā)者群體,阿里云機器學習平臺PAI在國內率先對Llama2系列模型進行深度適配,推出了輕量級微調、全參數微調、推理服務等場景的最佳實踐方案,助力開發(fā)者快速基于Llama2進行再訓練,搭建自己的專屬大模型。
阿里云牽頭發(fā)起的AI模型社區(qū)魔搭ModelScope,第一時間上架了Llama2系列模型。開發(fā)者可在魔搭社區(qū)Llama2模型頁面點擊“Notebook快速開發(fā)”,一鍵拉起阿里云機器學習平臺PAI,對模型進行云上開發(fā)和部署;在其他平臺下載的Llama2模型,也可使用阿里云PAI進行開發(fā)。
