Docker三分钟搞定LLama3开源大模型本地部署

概述
llama-3(large language model meta ai 3)是由meta公司开发的大型开源生成式人工智能模型。它在模型结构上与前一代llama-2相比没有大的变动。
LLaMA-3模型分为不同规模的版本,包括小型、中

概述

llama-3(large language model meta ai 3)是由meta公司开发的大型开源生成式人工智能模型。它在模型结构上与前一代llama-2相比没有大的变动。

LLaMA-3模型分为不同规模的版本,包括小型、中型和大型,以适应不同的应用需求和计算资源。小型模型参参数规模为8B,中型模型参参数规模为70B,而大型模型参参数规模则达到400B。然而在训练中,目标是实现多模态、多语言的功能,预计结果将与GPT 4/GPT 4V相当。

安装 Ollama

Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。

官网地址:https://ollama.com/download

Docker三分钟搞定LLama3开源大模型本地部署图片

Ollama是一个支持多种平台的工具,包括Mac和Linux,并提供了Docker镜像以简化安装过程。用户可以通过编写Modelfile来导入和自定义更多的模型,这类似于Dockerfile的作用。Ollama还具备一个REST API,用于运行和管理模型,以及一个用于模型交互的命令行工具集。

Ollama服务启动日志

Docker三分钟搞定LLama3开源大模型本地部署图片

模型管理

下载模型

ollama pull llama3:8b

登录后复制

默认下载的是llama3:8b。这里冒号前面代表模型名称,冒号后面代表tag,可以从这里查看llama3的所有tag

Docker三分钟搞定LLama3开源大模型本地部署图片

模型测试

注意:如果想让模型中文回复,请先输入:你好!请中文回复

Docker三分钟搞定LLama3开源大模型本地部署图片

配置Open-WebUI

在CPU下运行

<a style="color:#f60; text-decoration:underline;" href="https://www.php.cn/zt/15865.html" target="_blank">docker</a> run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

登录后复制

Docker三分钟搞定LLama3开源大模型本地部署图片

访问

输入地址 http://127.0.0.1:3000 进行访问

Docker三分钟搞定LLama3开源大模型本地部署图片

初次访问需要注册,这里我注册一个账号,注册完成登录成功

Docker三分钟搞定LLama3开源大模型本地部署图片

切换中文语言

Docker三分钟搞定LLama3开源大模型本地部署图片

下载llama3:8b模型

llama3:8b

登录后复制

Docker三分钟搞定LLama3开源大模型本地部署图片

下载完成

Docker三分钟搞定LLama3开源大模型本地部署图片

使用

选择模型

Docker三分钟搞定LLama3开源大模型本地部署图片

使用模型

Docker三分钟搞定LLama3开源大模型本地部署图片

注意:如果想让模型中文回复,请先输入:你好!请中文回复

Docker三分钟搞定LLama3开源大模型本地部署图片

内存

Docker三分钟搞定LLama3开源大模型本地部署图片

以上就是Docker三分钟搞定LLama3开源大模型本地部署的详细内容,更多请关注叮当号网其它相关文章!

文章来自互联网,只做分享使用。发布者:牧草,转转请注明出处:https://www.dingdanghao.com/article/408156.html

(0)
上一篇 2024-04-26 10:30
下一篇 2024-04-26 10:30

相关推荐

联系我们

在线咨询: QQ交谈

邮件:442814395@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信公众号