亞馬遜雲科技上線Meta新一代模型Llama 3.2
(全球TMT2024年10月10日訊)亞馬遜雲科技宣佈,Meta的新一代模型Llama 3.2,包括其首款多模態模型,現已在Amazon Bedrock和Amazon SageMaker中正式可用。客戶也可以在基於Amazon Trainium和Amazon Inferentia的Amazon Elastic Cloud Compute(Amazon EC2)實例中部署這些模型。Llama 3.2系列模型保留了此前的成功經驗,並進行了全新升級,提供高度差異化的功能更新,包括支持圖像推理的小型和中型視覺大語言模型,以及針對設備端優化過的輕量級純文本模型。這些新模型旨在提高使用便捷性和效率,同時特別注重負責任的創新和安全性。此外,針對內容安全分類而微調的Llama Guard 3 Vision模型,現在也已在Amazon SageMaker JumpStart中可用。
Meta推出了首款多模態視覺模型:Llama 3.2 11B Vision和Llama 3.2 90B Vision,這些型號支持圖像理解和視覺推理場景,適用於圖像標註、視覺問答、文檔處理、多模態聊天機器人等應用。爲邊緣和移動設備量身定製的輕量級純文本型號,如Llama 3.2 1B和Llama 3.2 3B,可以快速響應,非常適合個性化應用。針對內容安全分類進行微調的Llama Guard 3 11B Vision專爲支持圖像推理場景設計,提高了對有害多模態內容檢測能力。所有型號均支持128K上下文長度,並支持涵蓋八種語言的多語言對話使用場景。