【AI】Ollama+OpenWebUI+llama3本地部署保姆级教程,没有连接互联网一样可以使用AI大模型!!!

【AI】Ollama+OpenWebUI+llama3本地部署保姆级教程,没有连接互联网一样可以使用AI大模型!!!2 安装Ollama
2.1 下载Ollama
登录Ollama官网下载Ollama安装包GitHub:h

2 安装Ollama

2.1 下载Ollama

登录Ollama官网,下载Ollama安装包。

GitHub: https://github.com/ollama/ollama?tab=readme-ov-file

2.2 安装Ollama

在Windows 上安装Ollama 非常简单。这里不再赘述,直接双击运行安装文件即可。

打开终端,输入“ollam”,如果出现以下界面则说明安装成功。

消息:

Windows 安装默认不支持更改程序安装目录。

默认安装目录:C:\\Users\\用户名\\AppData\\Local\\Programs\\Ollama

默认安装模型目录:C:\\Users\\用户名\\ .ollama

默认配置文件目录:C:\\Users\\用户名\\AppData\\Local\\Ollama

2.3 配置Ollama的模型路径

Ollama 的模型默认位于C 盘用户文件夹下的.ollama/models 文件夹中,因此您可以配置环境变量OLLAMA_MODELS 并将其设置为指定路径。

2.4 下载llama3模型

llama3目前有两个主要模型,8B和70B,分别代表80亿和700亿个训练参数。

8B 型号通常在16GB 内存下运行流畅。 70B型号至少需要64GB内存,最好配备CPU。

我这次安装的型号是8B型号。

打开终端并输入以下命令: ollama run llama3 默认安装8B 模型。 安装成功后,还可以使用ollam a run llama3:8b指定对应的型号。

当我提出问题时,模特很有礼貌地回答。

至此,llama3本地部署完成。

注1:

如果需要在无网环境下部署,可以将下载的Ollama安装包复制安装到该环境中,并将下载的模型复制到对应路径,以便在无网环境下使用。

笔记2:

llama3 对中文的支持不多,所以如果需要中文,可以使用GitHub 上开源的llama3 中文调整模型。

https://github.com/LlamaFamily/Llama-中文

3orama+OpenWebUI

之前部署的llama3是通过命令行交互,体验不好。安装OpenWebUI 允许您使用Web 界面进行交互。我们将使用docker 来部署OpenWebUI。

3.1 安装Docker

3.1.1 下载Docker

Docker 下载https://docs.docker.com/desktop/install/windows-install/

3.1.2 启动微软Hyper-V

打开“控制面板- 程序- 打开或关闭Windows 功能”。

重启电脑即可安装成功

Windows 工具确认Hyper-V 已成功安装。

消息:

如果没有Hyper-V 选项,可以使用以下命令安装它:

推入\’%~dp0\’

dir /b %SystemRoot%\\servicing\\Packages\\*Hyper-V*.mum hv.txt

for /f %%i in (\’findstr /i .hv.txt 2^nul\’) do dism /online /norestart /add-package:\’%SystemRoot%\\servicing\\Packages\\%%i\’

删除hv.txt

Dism /online /enable-feature /featurename:Microsoft-Hyper-V -All /LimitAccess /ALL

暂停

在记事本中输入上述代码并将其命名为Hyper-V.bat。

然后以管理员身份运行。

您将看到类似于以下内容的命令行

3.1.3 安装Docker

打开后会是这样的:通常你不需要使用这个,只需使用命令行即可。

3.1.4 切换国内镜像源

{

‘注册表镜像’: [

\’https://82m9ar63.mirror.aliyuncs.com\’,

\’http://hub-mirror.c.163.com\’,

“https://docker.mirrors.ustc.edu.cn”

],

\’建设者\’: {

\’gc\’: {

\’defaultKeepStorage\’: \’20GB\’,

\’启用\’: 真

}

},

\’实验\’: 错误,

\’功能\’: {

\’buildkit\’: 正确

}

}

3.2 安装OpenWebUI

GitHub地址

docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart 始终ghcr.io/open-webui/open -webui:main

docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart 始终ghcr.io/open-webui/open -webui:main

浏览器输入http://localhost:3000/

消息:

请在注册时输入您的电子邮件地址(例如admin@111.com)。

3.3 web访问llama3

注册并登录后,您将看到可以直接选择之前部署的llama3:8b模型并通过对话框测试其功能。

消息:

llama3 必须在后台运行。奥拉姆跑llama3:8b

3.4 离线部署

首先,安装Docker并保存网上下载的Docker镜像。

3.在离线机器上挂载镜像

dockerload -i open-webui.tar

4. 使用第3.2 章中的命令启动容器。

#【AI】Ollama+OpenWebUI+llama3本地部署保姆级教程,无需联网即可使用AI大模型。相关内容来源网络仅供参考。相关信息请参见官方公告。

原创文章,作者:CSDN,如若转载,请注明出处:https://www.sudun.com/ask/93898.html

(0)
CSDN's avatarCSDN
上一篇 2024年7月26日 下午1:38
下一篇 2024年7月26日 下午1:38

相关推荐

  • 鸿蒙生态编程模式是什么

    鸿蒙生态编程模式:鸿蒙生态编程模型采用面向服务的架构,允许开发者基于现有鸿蒙服务进行二次开发,快速构建应用。同时,鸿蒙生态编程模型提供了开发者友好的开发工具和API,简化了开发流程…

    网站运维 2024年5月12日
    0
  • 电脑编程的玩具叫什么

    编程玩具通常称为编程机器人、教育机器人或智能学习玩具。它们通常被设计为有趣且具有教育意义,以控制玩具的行为并增强对逻辑思维和编程概念的理解。一个值得注意的例子是某些玩具的模块化设计…

    网站运维 2024年5月12日
    0
  • 什么是游戏服务器?

    随着互联网的快速发展,网络游戏也越来越广泛了,有着专门的游戏服务器。相信大家对服务器都很熟悉,但是游戏服务器却了解的很少,今天大家就来听小编讲解一下什么是游戏服

    2024年9月20日
    0
  • 光纤分路器怎么安装使用(光纤分光器是干什么用的)

    来源:网络技术联盟站  光分路器,或光纤分路器,是光纤通信系统中的一种关键设备,它可以将入射光分配到多个输出端口,或将来自多个输入端口的光合并到一个输出端口。在光纤网络中…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注