Dify工具的安装和使用

embedded/2025/2/27 23:09:37/

AI工具的使用

1. 安装前硬件要求

名称参数
操作系统Windows 11(64位)
处理器至少2核,2GHz或更快
硬盘空间至少60GB

硬件越好,性能越高,处理越快。

2.安装WSL和Docker

(1)开启Hyper-V,安装WSL

打开控制面板,找到对应的功能进行打开,操作如下图:
在这里插入图片描述

在这里插入图片描述

windows+R,输入cmd,命令行输入wsl --install,安装重启电脑。重启后输入wsl --status查看状态。

如果无报错,跳过更新;如果有报错,输入 wsl --update 更新(若下载缓慢可终止 Ctrl + C,再使用 wsl --update --web-download 重新下载)。
最后输入 wsl --status 确认安装成功。

(2)安装Docker

Docker官网下载地址: Docker: Accelerated Container Application Development

下载与系统相对应的版本进行安装即可。

3.安装git

网址:https://github.com/git-for-windows/git/releases/download/v2.48.1.windows.1/Git-2.48.1-64-bit.exe

搜索:github文件加速下载,加速下载github文件

安装教程:【可以无脑下一步】windows安装git(全网最详细,保姆教程)

4.安装dify

配置docker镜像源,加速下载

增加docker镜像源:https://docker.1ms.run

{"builder": {"gc": {"defaultKeepStorage": "20GB","enabled": true}},"experimental": false,"features": {"buildkit": true},"registry-mirrors": ["https://docker.1ms.run"]
}

更改镜像源方式一:docker界面操作
在这里插入图片描述

更改镜像源方式二:找到json文件进行编辑

在这里插入图片描述

方式一:使用git克隆

打开cmd,输入命令:

从指定的GitHub仓库中获取Dify的代码

git clone https://github.com/langgenius/dify.git

操作,复制配置文件:

cd dify/docker
copy .env.example .env

cd是切换文件,相当于windows操作,进入到docker文件夹下。

cp是复制,复制示例配置文件,这一步就像是复制一份模板,后续可以根据自己的需求修改其中的参数,比如调整端口或密钥等。

一键启动服务:根据你安装的Docker Compose版本,选择相应的命令启动服务。如果是Docker Compose V2,在终端输入:

docker compose up -d

如果运行报错,运行V1版本代码:docker-compose up -d

方式二:直接github下载压缩包

github下载地址:GitHub - langgenius/dify

解压文件,先找到docker-compose.yaml文件所在的文件夹(通常在 dify 目录下的 docker 文件夹中)

在这里插入图片描述

进入命令行模式:

在这里插入图片描述

一键启动服务:根据你安装的Docker Compose版本,选择相应的命令启动服务。如果是Docker Compose V2,在终端输入:

docker compose up -d

如果运行报错,运行V1版本代码:docker-compose up -d

耐心等待下载

耐心等待下载完成:【下载不动可能是镜像源已失效】
在这里插入图片描述

问题处理(没报错跳过)

若出现端口冲突(例如 Error response from daemon: Ports are not available),可通过以下方法解决:

方法一:关闭占用 80 端口的服务。
方法二:修改 .env 文件中端口号,将 NGINX_PORT=80 和 EXPOSE_NGINX_PORT=80 改为 81。

在这里插入图片描述
在这里插入图片描述

安装是否成功

打开docker,看到运行的容器即可。

在这里插入图片描述

5. 使用Dify

在浏览器中打开:

http://localhost:80
或者
http://127.0.0.1:80

如果更改了端口,自行替换即可。

6. 配置模型

说明:Dify只是一个工具,AI模型需要配置API

Dify 是一个运行在本地的 Web UI,它允许我们便捷地访问和使用各种大语言模型,但是需要注意的是,下载 Dify 并不等同于下载了这些模型本身,如果希望使用这些大模型,依然需要入场券,也就是需要拿到相应的 API Key,这部分是需要自己额外付费。

右上角,个人信息下拉,选择设置,找到模型供应商

在这里插入图片描述

以deepseek为例:

进入官网:DeepSeek 开放平台

参考文档: DeepSeek API Docs

生成API key,方便调用:
在这里插入图片描述

记住api key,保存下来备用:

在这里插入图片描述

集成Ollama[本地化]

官网地址:Ollama

github地址:https://github.com/ollama/ollama/

下载安装即可。下载安装大模型。

模型名称选择你安装的大语言模型,基础URL默认是:http://host.docker.internal:11434/

在这里插入图片描述

创建应用

自由创作。

文档参考:

Dify+DeepSeek-R1: 我的超强AI工作流,详细的部署与使用实录_dify deepseek
保姆教程篇:手把手教你从零开始本地部署Dify - 知乎
Docker 部署 Dify:轻松集成 Ollama 和 DeepSeek_dify docker 配置ollama-CSDN博客


http://www.ppmy.cn/embedded/167653.html

相关文章

Vue3的ref与reactive

为什么推荐使用ref而不是reactive reactive在使用过程中存在一些局限性,如果不额外注意这些问题,可能会给开发带来一些不便。与此不同,ref 更像是Vue2时代的option API中的data的替代品,可以存放任何数据类型,而reacti…

AI人工智能机器学习之监督线性模型

1、概要 本篇学习AI人工智能机器监督学习框架下的线性模型,以LinearRegression线性回归和LogisticRegression逻辑回归为示例,从代码层面测试和讲述监督学习中的线性模型。 2、监督学习之线性模型 - 简介 监督学习和线性模型是的两个重要概念。 监督学…

Lumoz Chain正式上线:AI 时代的新算力破局者

新的叙事和技术突破永远是推动行业前行的核心动力。当下,AI Agent无疑是最炙手可热的赛道之一。 当加密世界将目光投向AI领域时,大多数项目仍停留在以AI为工具或应用场景的层面,试图通过集成AI模型或优化链上功能来吸引用户。然而&#xff0c…

从零到一:如何用阿里云百炼和火山引擎搭建专属 AI 助手(DeepSeek)?

本文首发:从零到一:如何用阿里云百炼和火山引擎搭建专属 AI 助手(DeepSeek)? 阿里云百炼和火山引擎都推出了免费的 DeepSeek 模型体验额度,今天我和大家一起搭建一个本地的专属 AI 助手。  阿里云百炼为 …

【量化-什么是信息?怎么有效的学习?关键字摘取】

到底什么是信息呢?我们怎么衡量信息的价值与多少呢?今天,我们就来说说这个问题。 怎么量化信息? 信息,只有量化了才能被准确地讨论,而量化的方法就和事件发生的概率密切相关。或者说得直白一些&#xff0…

Linux设备驱动开发-UART驱动

UART 有三条线,分别是 Rx,Tx 和 GND 数据发送接收步骤: 1.双方约定波特率 2.拉低(从高电平) Tx 引脚维持 1bit 时间 3.接收端在低电平开始处计时 4.发送端根据数据驱动 Tx 引脚电平 5.接收端 1.5bit 时间后读取引…

《AI赋能星际探索:机器人如何开启宇宙新征程!》

在人类对宇宙无尽的探索中,空间探索任务始终充满挑战。从遥远星球的探测,到空间站的维护,每一项任务都需要高精度、高可靠性的操作。人工智能(AI)的迅猛发展,为空间探索机器人带来了革命性的变革&#xff0…

如何在Ubuntu 22.04或20.04 Linux上安装MobaXterm

MobaXterm是一款流行的跨平台终端模拟器,集成了SSH、SFTP等多种网络工具,非常适合远程管理Linux服务器。然而,需要注意的是,MobaXterm本身是一款面向Windows的操作系统软件,没有官方的Linux版本。因此,在Ub…