Ollama如何构建自己的Llama3中文模型

Ollama
ollama 是一个开源的大型语言模型(llm)服务工具,它允许用户在本地机器上运行和部署大型语言模型。ollama 设计为一个框架,旨在简化在 docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户

Ollama

ollama 是一个开源的大型语言模型(llm)服务工具,它允许用户在本地机器上运行和部署大型语言模型。ollama 设计为一个框架,旨在简化在 docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 llama 3 这样的开源大型语言模型。

应用模型

注意:推荐下载 GGUF文件格式的模型,可以快速简洁的导入 Ollama 中。

0X01 下载模型文件

下载地址:https://huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat-GGUF-8bit/tree/main。

下载 Llama3-8B-Chinese-Chat-q8_0-v2_1.gguf 模型文件。

Ollama如何构建自己的Llama3中文模型图片

0X02 编写模型文件

Modelfile文件内容如下:

# FROM 指定 GGUF 文件的路径FROM D:/AI/Download/Llama3-8B-Chinese-Chat-q8_0-v2_1.gguf

登录后复制

0X03 创建 Ollama 模型

使用ollama create命令可以根据Modelfile创建一个新的模型:

ollama create tinywan-Llama3-8B-Chinese -f ./Modelfiletransferring model datausing existing layer sha256:ea6e8d5cda0fc798898b67f6e728eb2d02877a2599aa3c8290aaa6f681c2bb9ecreating new layer sha256:e6e86a160950a92b7b32fcd6fcbc830e38634be6d616ec57452561bfe2a243fbwriting manifestsuccess

登录后复制

这个命令会读取Modelfile中的配置,并创建一个名为tinywan-Llama3-8B-Chinese的新模型。

通过命令ollama list查看模型列表:

> ollama listNAMEIDSIZEMODIFIEDtinywan-Llama3-8B-Chinese:latestadcb30feaee516 GB About a minute agollama3:8b a6990ed6be414.7 GB2 weeks ago

登录后复制

0X04 运行 Ollama 模型

使用 ollama run 命令来验证tinywan-Llama3-8B-Chinese新模型:

ollama run tinywan-Llama3-8B-Chinese:latest

登录后复制

模型测试

>>> 写一首诗吧。"我说。他眨了眨眼,微笑着回答道:“好啊,我试试看。”然后,他闭上眼睛,开始吟唱:在星空之下,月光洒银辉。风轻轻地舞,树叶低语。山川河流静默,夜晚笼罩大地。但就在这宁静中,我感受到生命的脉动,它如同诗歌般跳跃,穿梭于每一颗心中。

登录后复制

REST API

除了命令行界面,OLlama还提供了REST API,使得您可以通过HTTP请求与模型交互。这对于在Web应用程序中集成ollama尤其有用。

请求

要生成模型的响应,您可以发送一个POST请求到 /api/generate:

curl -X POST http://localhost:11434/api/generate -d '{ "model": "llama3:8b", "prompt": "中文回答。你是什么大模型?", "stream": false}'

登录后复制

响应

返回一个JSON对象流:

{ "model": "llama3:8b", "created_at": "2024-05-12T09:00:01.9513668Z", "response": "I'm LLaMA, a large language model developed by Meta AI that can understand and respond to human input in a conversational manner. I've been trained on a massive dataset of text from the internet and can generate human-like responses to a wide range of topics and questions. My training data includes but is not limited to:nn* Web pages: articles, blogs, forumsn* Books: fiction and non-fictionn* Research papers: academic journals, research articlesn* User-generated content: social media, comments, reviewsnnI'm able to generate responses that are contextualized to the conversation I'm having with you. This means I can recall previous statements or questions in our conversation and respond accordingly.nnMy capabilities include:nn* Answering questions on a wide range of topics, from science and history to entertainment and culturen* Generating text summaries of long pieces of contentn* Translating text from one language to another (in this case, Chinese to English)n* Responding to natural language input in a conversational mannernnI'm constantly learning and improving my responses based on the conversations I have with users like you. So feel free to ask me anything, and I'll do my best to provide helpful and accurate information!", "done": true, "done_reason": "stop", "context": [128006,...128009 ], "total_duration": 37185731000, "load_duration": 10876300, "prompt_eval_count": 13, "prompt_eval_duration": 1058480000, "eval_count": 248, "eval_duration": 36115711000}

登录后复制

更多了解:https://github.com/ollama/ollama/blob/main/docs/api.md

meta-llama

项目开源地址:https://github.com/meta-llama/llama3

Ollama如何构建自己的Llama3中文模型图片

模型下载直接在在Hugging Face上下载就是了。模型地址:https://huggingface.co/models。

注意:推荐下载GGUF文件格式的模型,可以快速简洁的导入Ollama中。有了gguf格式的模型文件这样就不需要通过llama.cpp项目进行模型格式转换了。

Ollama如何构建自己的Llama3中文模型图片

其他

删除模型

如果需要删除一个本地的模型,可以使用ollama rm命令。这将从您的本地环境中删除名为my-model的模型。

ollama rm my-model

登录后复制

复制模型

您可以使用ollama cp命令复制一个模型,创建一个新的模型副本:

ollama cp original-model new-model

登录后复制

以上就是Ollama如何构建自己的Llama3中文模型的详细内容,更多请关注叮当号网其它相关文章!

文章来自互联网,只做分享使用。发布者:牧草,转转请注明出处:https://www.dingdanghao.com/article/494362.html

(0)
上一篇 2024-05-16 12:25
下一篇 2024-05-16 13:00

相关推荐

联系我们

在线咨询: QQ交谈

邮件:442814395@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信公众号