欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 建筑 > dify本地部署及添加ollama模型(ubuntu24.04)

dify本地部署及添加ollama模型(ubuntu24.04)

2025/6/21 14:01:29 来源:https://blog.csdn.net/u010734213/article/details/148476650  浏览:    关键词:dify本地部署及添加ollama模型(ubuntu24.04)
  • 说明:ubuntu是虚拟机的,用的桥接模式,与本地同局域网不同ip地址。
    参考VM虚拟机网络配置(ubuntu24桥接模式):配置静态IP
  • 前提:需要有docker及docker-compose环境
    参考ubuntu24安装docker及docker-compose

源码下载

下载地址:https://github.com/langgenius/dify
切换到自己要存放该源码的目录下,拉取代码

# 没有git就安装一下
# 1.首先更新软件包列表
sudo apt update
# 2.安装git
sudo apt install git
# 3.查看git版本
git --version# 拉取
git clone https://github.com/langgenius/dify.git

修改.env环境配置信息

dify/docker目录下,直接copy就行

cp .env.example .env

拉取镜像并运行容器

dify/docker目录下

docker-compose up -d
# 启动后查看下
docker ps

在这里插入图片描述

访问(默认80端口)

  • 注册并登录
    本机的话直接localhost即可
    首次访问会让注册账号,我这里已经注册过了,所以显示登录界面。
    在这里插入图片描述
    在这里插入图片描述

添加ollama模型供应商

.env配置Ollama的API地址

在dify/docker下.env文件最后添加以下配置

# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定Ollama的API地址(根据实际部署环境调整IP)
OLLAMA_API_BASE_URL=http://192.168.XX.XX:11434

关闭并重启docker

docker-compose down
docker-compose up -d

测试docker是否能访问ollama

我本地ollama的模型
在这里插入图片描述
docker测试是否能调用ollama:

# 192.168.18.25:11434切换成自己ollama的ip地址docker exec -it docker-api-1 curl 192.168.XX.XX:11434/api/tags

在这里插入图片描述

配置ollama

右上角-设置-模型供应商-安装模型供应商:找到ollama并安装,安装完之后可以在上方待配置处看到
(我下载的这个dify版本,需要点击两次安装才能安装成功)
在这里插入图片描述
在这里插入图片描述
配置相应的ollama模型,并保存。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词