本地运行Llama 3模型:详细指南

2024年04月22日 由 daydream 发表 225 0

Meta已经发布了其开放权重大型语言模型家族中的最新一代——Llama 3。目前,它提供了8B和70B两种参数大小的版本,同时提供了预训练和指令调优两种选择。


微信截图_20240422110500


其中,指令调优版本是专门针对聊天/对话用例进行微调的,而预训练版本则是基础模型。请注意,8B参数模型大约占用4GB的存储空间,而70B版本则大约占用40GB。


在本文中,我们将为您提供一个详细的指南,帮助您在本地运行这些模型。


选项一:使用Ollama


支持平台:MacOS、Ubuntu、Windows(预览版)


Ollama是让您在本地运行Llama 3的最简单方法之一。您只需在此处下载应用程序,然后在命令行界面(CLI)中运行以下命令之一。

ollama run llama3


这将会下载Llama 3的8B指令模型。


您可以选择性地提供一个标签,但如果不提供,则会默认为最新版本。标签用于标识特定版本。例如,您可以运行:

ollama run llama3:70b-text
ollama run llama3:70b-instruct


恭喜,您现在可以通过CLI访问该模型了。


如果您想要一个类似ChatGPT的聊天机器人用户界面,那么您需要做更多的工作。一个不错的选择是Open WebUI项目:


微信截图_20240422110541


您可以在此处下载OpenWebUI(前称Ollama WebUI)。它是一个功能丰富且友好的自托管Web UI。我建议您使用Docker,并使用以下命令设置容器:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main


安装完成后,您可以访问Open WebUI。


注意:您还可以查看Chatbot Ollama或Chatbot UI。


选项二:使用LM Studio


支持平台:MacOS、Ubuntu、Windows


微信截图_20240422110605


LM Studio得以实现要归功于llama.cpp项目,并支持Hugging Face上的任何ggml Llama、MPT和StarCoder模型。您可以在此处下载应用程序,并留意系统要求。


注意:LM Studio内置了聊天界面和其他功能。


选项三:GPT4All


支持平台:MacOS、Ubuntu、Windows


微信截图_20240422110620


您只需下载应用程序并按照常规方式安装即可。


希望这份指南能帮助您在本地成功运行Llama 3模型,享受人工智能带来的便利和乐趣。

文章来源:https://www.maginative.com/article/how-to-run-llama-3-on-your-pc-or-mac/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消