Ollama是一個用于在本地計算機上運行大型語言模型的命令行工具,允許用戶下載并本地運行像Llama 2、Code Llama和其他模型,并支持自定義和創(chuàng)建自己的模型。該免費開源的項目,目前支持macOS和Linux操作系統(tǒng),未來還將支持Windows系統(tǒng)????,大家快來奇想AI導航網(wǎng)!
此外,Ollama還提供了官方的Docker鏡像,由此使用Docker容器部署大型語言模型變得更加簡單,確保所有與這些模型的交互都在本地進行,無需將私有數(shù)據(jù)發(fā)送到第三方服務。Ollama在macOS和Linux上支持GPU加速,并提供了簡單的命令行界面(CLI)以及用于與應用程序交互的REST API??。
該工具對于需要在本地機器上運行和實驗大語言模型的開發(fā)人員或研究人員來說特別有用,無需依賴外部云服務。
Ollama支持的模型
Ollma提供一個模型庫,用戶可以自行選擇安裝想要運行的模型,目前支持40+的模型,還在持續(xù)增加中,以下是可以下載的開源模型示例:
模型 | 參數(shù)大小 | 文件大小 | 下載運行命令 |
---|---|---|---|
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Mistral | 7B | 4.1GB | ollama run mistral |
Llama 2 | 7B | 3.8GB | ollama run llama2 |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Vicuna | 7B | 3.8GB | ollama run vicuna |
??版權聲明:若無特殊聲明,本站所有文章版權均歸奇想AI導航網(wǎng)原創(chuàng)和所有,未經(jīng)許可,任何個人、媒體、網(wǎng)站、團體不得轉(zhuǎn)載、抄襲或以其他方式復制發(fā)表本站內(nèi)容,或在非我站所屬的服務器上建立鏡像。否則,我站將依法保留追究相關法律責任的權利。