TwelveLabs在AWS re:Invent上宣布,其迄今為止最復雜的視頻基礎模型Marengo 3.0正式上市。它不僅僅是看視頻,還會閱讀和聆聽,并捕捉場景節奏。該模型通過時間線跟蹤視頻內的物體、運動、情感和事件。客戶現在可以通過Amazon Bedrock和TwelveLabs使用它。
![]()
Marengo 3.0在企業級規模上提供類似人類的視頻理解
Marengo 3.0基于TwelveLabs多模態架構,將視頻視為一個活生生的動態系統,將音頻、文本、運動、視覺和上下文壓縮成可以大規模搜索、導航和理解的內容。Marengo 3.0已準備好投入生產,并可立即實現投資回報率。基于廣泛的測試,該模型將存儲成本降低了50%,索引性能提高了兩倍,并帶來了一系列其他好處,因此任何擁有視頻內容存儲的人都可以充分利用他們的所有資產。
TwelveLabs首席執行官兼聯合創始人Jae Lee表示:“視頻占數字化數據的90%,但這些數據在很大程度上是不可用的,因為人類需要太長時間才能分解,機器也無法掌握和解釋視頻中發生的一切。”“解決這個問題一直是我們唯一的癡迷。現在,Marengo 3.0打破了可能的極限。對于企業和開發人員來說,這是一個無與倫比的解決方案。”
更智能、更快、更精簡,實現真正的視頻理解
Marengo 3.0的發布使TwelveLabs成為視頻智能基礎設施領域的突破性領導者,其能力無人能及。與依賴逐幀分析或將單獨的圖像和音頻模型拼接在一起的競爭對手不同,Marengo 3.0允許用戶以不同的方式觀看并理解視頻中的所有內容。這甚至包括最復雜、移動最快的片段。
![]()
現在,Marengo更擅長理解體育、媒體和娛樂、廣告視頻,以及政府和公共安全用例中發現的敏感視頻類型。Marengo 3.0提供:
原生視頻理解:Marengo 3.0不是根據圖像模型改編的。它提供了基礎模型級別的理解。
時空推理:新模型獨特地理解跨時間和空間的上下文。
體育情報:Marengo 3.0提供球隊、球員、球衣號碼和動作跟蹤,使識別亮點比以往任何時候都更快、更容易。
組合多模式查詢:為了確保用戶始終找到他們需要的東西,Marengo 3.0使他們能夠在單個查詢中組合圖像和文本,以獲得更精細的結果。
生產經濟:Marengo 3.0降低了50%的存儲成本,索引速度提高了2倍,同時創造了新的收入來源的潛力,幫助企業節省成本,同時提供了更多的增長機會。
企業應用就緒:即使是最大的組織也很容易開始。Marengo 3.0已在Amazon Bedrock上發布,可在其當前的AWS環境中快速安全地部署,也可直接通過TwelveLabs作為月度服務進行部署。
憑借其API-first設計,Marengo 3.0提供了緊湊的嵌入和四小時視頻支持,比Marengo 2.7增加了兩倍。此外,它還支持36種語言的多語言。
AWS人工智能基礎設施副總裁Nishant Mehta表示:“TwelveLabs在視頻理解方面的工作正在改變整個行業管理其視頻功能的方式,為主要是手動過程帶來前所未有的速度和效率。”“繼TwelveLabs之前的Marengo和Pegasus型號被廣泛采用后,我們很高興成為第一家通過亞馬遜Bedrock向客戶提供Marengo 3.0的云提供商。”
![]()
Marengo 3.0目前可通過TwelveLabs或Amazon Bedrock獲得,這是一種完全托管的服務,用于構建和擴展生成式AI應用程序和代理。AWS是第一家提供Marengo 3.0訪問權限的云服務提供商。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.