久久九九热免费视频,天堂√中文最新版在线,亚洲欧美校园春色,国产中文在线播放

Llama 3
免費(fèi)開(kāi)源
奇想AI Al訓(xùn)練模型

Llama 3

Meta最新開(kāi)源推出的新一代大模型

標(biāo)簽:

Llama 3是什么

Llama 3是Meta公司最新開(kāi)源推出的新一代大型語(yǔ)言模型(LLM),包含8B和70B兩種參數(shù)規(guī)模的模型,標(biāo)志著開(kāi)源人工智能領(lǐng)域的又一重大進(jìn)步。作為L(zhǎng)lama系列的第三代產(chǎn)品,Llama 3不僅繼承了前代模型的強(qiáng)大功能,還通過(guò)一系列創(chuàng)新和改進(jìn),提供了更高效、更可靠的AI解決方案,旨在通過(guò)先進(jìn)的自然語(yǔ)言處理技術(shù),支持廣泛的應(yīng)用場(chǎng)景,包括但不限于編程、問(wèn)題解決、翻譯和對(duì)話生成,大家快來(lái)奇想AI導(dǎo)航網(wǎng)!

Llama 3
Llama 3的系列型號(hào)

Llama 3目前提供了兩種型號(hào),分別為8B(80億參數(shù))和70B(700億參數(shù))的版本,這兩種型號(hào)旨在滿足不同層次的應(yīng)用需求,為用戶提供了靈活性和選擇的自由度。

  • Llama-3-8B:8B參數(shù)模型,這是一個(gè)相對(duì)較小但高效的模型,擁有80億個(gè)參數(shù)。專為需要快速推理和較少計(jì)算資源的應(yīng)用場(chǎng)景設(shè)計(jì),同時(shí)保持了較高的性能標(biāo)準(zhǔn)。
  • Llama-3-70B:70B參數(shù)模型,這是一個(gè)更大規(guī)模的模型,擁有700億個(gè)參數(shù)。它能夠處理更復(fù)雜的任務(wù),提供更深入的語(yǔ)言理解和生成能力,適合對(duì)性能要求更高的應(yīng)用。

后續(xù),Llama 3 還會(huì)推出 400B 參數(shù)規(guī)模的模型,目前還在訓(xùn)練中。Meta 還表示等完成 Llama 3 的訓(xùn)練,還將發(fā)布一份詳細(xì)的研究論文。

Llama 3的官網(wǎng)入口

  • 官方項(xiàng)目主頁(yè):https://llama.meta.com/llama3/
  • GitHub模型權(quán)重和代碼:https://github.com/meta-llama/llama3/
  • Hugging Face模型:https://huggingface.co/collections/meta-llama/meta-llama-3-66214712577ca38149ebb2b6

Llama 3的改進(jìn)地方

  • 參數(shù)規(guī)模:Llama 3提供了8B和70B兩種參數(shù)規(guī)模的模型,相比Llama 2,參數(shù)數(shù)量的增加使得模型能夠捕捉和學(xué)習(xí)更復(fù)雜的語(yǔ)言模式。
  • 訓(xùn)練數(shù)據(jù)集:Llama 3的訓(xùn)練數(shù)據(jù)集比Llama 2大了7倍,包含了超過(guò)15萬(wàn)億個(gè)token,其中包括4倍的代碼數(shù)據(jù),這使得Llama 3在理解和生成代碼方面更加出色。
  • 模型架構(gòu):Llama 3采用了更高效的分詞器和分組查詢注意力(Grouped Query Attention, GQA)技術(shù),提高了模型的推理效率和處理長(zhǎng)文本的能力。
  • 性能提升:通過(guò)改進(jìn)的預(yù)訓(xùn)練和后訓(xùn)練過(guò)程,Llama 3在減少錯(cuò)誤拒絕率、提升響應(yīng)對(duì)齊和增加模型響應(yīng)多樣性方面取得了進(jìn)步。
  • 安全性:引入了Llama Guard 2等新的信任和安全工具,以及Code Shield和CyberSec Eval 2,增強(qiáng)了模型的安全性和可靠性。
  • 多語(yǔ)言支持:Llama 3在預(yù)訓(xùn)練數(shù)據(jù)中加入了超過(guò)30種語(yǔ)言的高質(zhì)量非英語(yǔ)數(shù)據(jù),為未來(lái)的多語(yǔ)言能力打下了基礎(chǔ)。
  • 推理和代碼生成:Llama 3在推理、代碼生成和指令跟隨等方面展現(xiàn)了大幅提升的能力,使其在復(fù)雜任務(wù)處理上更加精準(zhǔn)和高效。

Llama 3的性能評(píng)估

根據(jù)Meta的官方博客,經(jīng)指令微調(diào)后的 Llama 3 8B 模型在MMLU、GPQA、HumanEval、GSM-8K、MATH等數(shù)據(jù)集基準(zhǔn)測(cè)試中都優(yōu)于同等級(jí)參數(shù)規(guī)模的模型(Gemma 7B、Mistral 7B),而微調(diào)后的 Llama 3 70B 在 MLLU、HumanEval、GSM-8K 等基準(zhǔn)測(cè)試中也都優(yōu)于同等規(guī)模的 Gemini Pro 1.5 和 Claude 3 Sonnet 模型。

Llama 3

此外,Meta還開(kāi)發(fā)了一套新的高質(zhì)量人類評(píng)估集,包含 1800 個(gè)提示,涵蓋 12 個(gè)關(guān)鍵用例:尋求建議、頭腦風(fēng)暴、分類、封閉式問(wèn)答、編碼、創(chuàng)意寫作、提取、塑造角色/角色、開(kāi)放式問(wèn)答、推理、重寫和總結(jié)。通過(guò)與Claude Sonnet、Mistral Medium和GPT-3.5等競(jìng)爭(zhēng)模型的比較,人類評(píng)估者基于該評(píng)估集進(jìn)行了偏好排名,結(jié)果顯示Llama 3在真實(shí)世界場(chǎng)景中的性能非常出色,最低都有52.9%的勝出率。

Llama 3

Llama 3的技術(shù)架構(gòu)

  • 解碼器架構(gòu):Llama 3采用了解碼器(decoder-only)架構(gòu),這是一種標(biāo)準(zhǔn)的Transformer模型架構(gòu),主要用于處理自然語(yǔ)言生成任務(wù)。
  • 分詞器和詞匯量:Llama 3使用了具有128K個(gè)token的分詞器,這使得模型能夠更高效地編碼語(yǔ)言,從而顯著提升性能。
  • 分組查詢注意力(Grouped Query Attention, GQA):為了提高推理效率,Llama 3在8B和70B模型中都采用了GQA技術(shù)。這種技術(shù)通過(guò)將注意力機(jī)制中的查詢分組,減少了計(jì)算量,同時(shí)保持了模型的性能。
  • 長(zhǎng)序列處理:Llama 3支持長(zhǎng)達(dá)8,192個(gè)token的序列,使用掩碼(masking)技術(shù)確保自注意力(self-attention)不會(huì)跨越文檔邊界,這對(duì)于處理長(zhǎng)文本尤其重要。
  • 預(yù)訓(xùn)練數(shù)據(jù)集:Llama 3在超過(guò)15TB的token上進(jìn)行了預(yù)訓(xùn)練,這個(gè)數(shù)據(jù)集不僅規(guī)模巨大,而且質(zhì)量高,為模型提供了豐富的語(yǔ)言信息。
  • 多語(yǔ)言數(shù)據(jù):為了支持多語(yǔ)言能力,Llama 3的預(yù)訓(xùn)練數(shù)據(jù)集包含了超過(guò)5%的非英語(yǔ)高質(zhì)量數(shù)據(jù),涵蓋了超過(guò)30種語(yǔ)言。
  • 數(shù)據(jù)過(guò)濾和質(zhì)量控制:Llama 3的開(kāi)發(fā)團(tuán)隊(duì)開(kāi)發(fā)了一系列數(shù)據(jù)過(guò)濾管道,包括啟發(fā)式過(guò)濾器、NSFW(不適合工作場(chǎng)所)過(guò)濾器、語(yǔ)義去重方法和文本分類器,以確保訓(xùn)練數(shù)據(jù)的高質(zhì)量。
  • 擴(kuò)展性和并行化:Llama 3的訓(xùn)練過(guò)程中采用了數(shù)據(jù)并行化、模型并行化和流水線并行化,這些技術(shù)的應(yīng)用使得模型能夠高效地在大量GPU上進(jìn)行訓(xùn)練。
  • 指令微調(diào)(Instruction Fine-Tuning):Llama 3在預(yù)訓(xùn)練模型的基礎(chǔ)上,通過(guò)指令微調(diào)進(jìn)一步提升了模型在特定任務(wù)上的表現(xiàn),如對(duì)話和編程任務(wù)。

如何使用Llama 3

開(kāi)發(fā)人員

Meta已在GitHub、Hugging Face、Replicate上開(kāi)源其Llama 3模型,開(kāi)發(fā)人員可使用torchtune等工具對(duì)Llama 3進(jìn)行定制和微調(diào),以適應(yīng)特定的用例和需求,感興趣的開(kāi)發(fā)者可以查看官方的入門指南并前往下載部署。

  • 官方模型下載:https://llama.meta.com/llama-downloads
  • GitHub地址:https://github.com/meta-llama/llama3/
  • Hugging Face地址:https://huggingface.co/meta-llama
  • Replicate地址:https://replicate.com/meta

普通用戶

不懂技術(shù)的普通用戶想要體驗(yàn)Llama 3可以通過(guò)以下方式使用:

  • 訪問(wèn)Meta最新推出的Meta AI聊天助手進(jìn)行體驗(yàn)(注:Meta.AI會(huì)鎖區(qū),只有部分國(guó)家可使用)
  • 訪問(wèn)Replicate提供的Chat with Llama進(jìn)行體驗(yàn)https://llama3.replicate.dev/
  • 使用Hugging Chat(https://huggingface.co/chat/),可手動(dòng)將模型切換至Llama 3
??版權(quán)聲明:若無(wú)特殊聲明,本站所有文章版權(quán)均歸奇想AI導(dǎo)航網(wǎng)原創(chuàng)和所有,未經(jīng)許可,任何個(gè)人、媒體、網(wǎng)站、團(tuán)體不得轉(zhuǎn)載、抄襲或以其他方式復(fù)制發(fā)表本站內(nèi)容,或在非我站所屬的服務(wù)器上建立鏡像。否則,我站將依法保留追究相關(guān)法律責(zé)任的權(quán)利。

類似于Llama 3的工具

主站蜘蛛池模板: 饶河县| 白山市| 米林县| 卢龙县| 祥云县| 尉犁县| 宁乡县| 岑巩县| 察雅县| 剑阁县| 黄平县| 肇东市| 同江市| 麻阳| 吉木萨尔县| 菏泽市| 上虞市| 镇巴县| 白山市| 霞浦县| 读书| 清丰县| 廊坊市| 万山特区| 红原县| 宿迁市| 扶沟县| 门源| 辽源市| 衡阳县| 罗田县| 定安县| 晋州市| 乐亭县| 黄陵县| 西昌市| 来宾市| 闵行区| 长乐市| 安国市| 花莲县|