想要開始使用生成式人工智慧嗎?
了解如何直接在瀏覽器中使用 Python 中的法學碩士
駱駝 3 是什麼?
Llama 3 是一個文字生成人工智慧。也就 保加利亞電話號碼列表 說,類似 OpenAI 的 GPT 和 Anthropic 的 Claude 模型,你寫一個文字提示,它會產生一個文字回應。最新的模型有望提高效能,特別是在更好的上下文理解和邏輯推理方面。 Llama 模型用於為 Meta AI 提供支持,Meta AI 是 Instagram、WhatsApp、Messenger 和 Facebook 中包含的智慧助理。
Llama 3 是一個「開放重量」模型。這意味著模型本身是開源的,提供了有關其計算方式的某種透明度。儘管如此,重新創建它的完整細節(例如用於訓練它的資料集)並未公開。
使用 MidjourneyPrompt 製作的 3 隻美洲駝圖像使用了“三隻美洲駝在田野裡快樂嬉戲的卡通”
Llama3 的新功能
Llama 3 有兩種尺寸:80 億參數模型和 700 億參數模型。一般來說,參數越多,輸出品質越好,但模型運行速度會更慢且成本更高。 700 億個參數與許多競爭對手的模型相當,儘管有些著名模型的參數量甚至更大。第三個具有 4000 億個參數的更大模型正在開發中。
上下文視窗(可以一次推理的文本量)已從 4096 個標記增加了一倍到 8192 個標記。標記指的是單字或標點符號,儘管有些單字被分解為多個標記。在英語中,四個標記大約是三個單詞,因此新的上下文視窗大約有 15 頁文字(每頁 400 個單字)。雖然這種增長是受歡迎的,但它距離最前沿還很遠,Claude 3 模型提供了 200,000 個代幣的上下文視窗。
公告文章中沒有描述該模型的更多功能。相反,大部分注意力都集中在周圍的軟體生態系統上。
駱駝 3 生態系統
除了 Llama3 的發布之外,Meta 還發布了一套工具,使 Llama 的使用變得更輕鬆、更安全。這是一個概述。
羊駝衛士2
Llama Guard 2是一款法學碩士工具,用於將文字分類為「安全」或「不安全」。它可用於提示和響應。例如,它可以檢測文本是否包含暴力、仇恨言論或其他令人厭惡的內容的描述。
一個範例用例是聊天機器人。您可以檢查每個提示,如果內容被標記為不安全,則您可以提供警告或其他方法來處理有問題的內容。同樣,如果聊天機器人產生標記為不安全的回應,您可以攔截它並在用戶看到它之前重試。
除了安全/不安全標誌之外,Llama Guard 2 的回應還標有安全標籤,這是MLCommons AI 安全分類法中的 11 類不良內容之一。

駱駝密碼盾
Llama Code Shield將程式碼分類為安全或不安全。由於許多軟體開發人員利用法學碩士來幫助他們編寫程式碼,因此存在產生不安全程式碼並將其包含在生產中的風險。該工具旨在整合到 AI 編碼助理中,並整合到 VSCode 和 DataLab 等其他工具中。
網路安全評估 2
CyberSec Eval 2可讓您評估 LLM 的安全性。原始的 CyberSec Eval 可讓您評估程式碼產生和網路攻擊防護的安全性。最新版本在此基礎上構建,具有評估提示注入敏感性、自動進攻性網路安全功能以及濫用程式碼解釋器傾向的功能。
火炬曲
torchtune是一個 Python 包,與 PyTorch 深度學習框架搭配使用,讓您可以輕鬆開發自己的法學碩士。有四項任務的工具。
基於現有法學碩士的構建塊創建新模型
使用LoRA 和 QLoRA等技術微調法學碩士
配置模型的訓練、量化和評估設置
提示模板和數據集集成,以實現更易於訪問的培訓
torchtune 與流行的機器學習平台集成,例如Hugging Face、