PyCharm接入本地部署DeepSeek 实现AI编程!【支持windows与linux】

devtools/2025/3/5 5:25:04/

今天尝试在pycharm上接入了本地部署的deepseek,实现了AI编程,体验还是很棒的。下面详细叙述整个安装过程。

本次搭建的框架组合是 DeepSeek-r1:1.5b/7b + Pycharm专业版或者社区版 Proxy AI(CodeGPT)

首先了解不同版本的deepseek区别:
deepseek-r1

根据:DeepSeek 系列模型选择 - AI 智算产品文档

一般情况下,我们选择安装deepseek-r1:1.5b或者7b,可以支持我们普通配置(消费级显卡或者无显卡)的电脑、笔记本,适合个人开发者或者边缘计算设备。

接下来,我们具体开始安装本地版deepseek.
1. 安装pycharm: https://www.jetbrains.com/pycharm/
可以装专业版(Professional)或者社区版(Community),均可以。

2. 下载安装ollama (https://ollama.com/download )

windows版本直接下载安装即可,傻瓜式安装,很简单。linux稍微复杂一些。下面着重谈一下linux(以ubuntu为例)的安装。

如果网络比较流畅,可以直接用官方提供的命令行快速安装。我自己尝试了以后,发现网络不太行,下载很缓慢,所以就采取了手动安装。注意linux要求有root权限。
2.1 下载并解压与操作系统匹配的安装包

首先进入到某一个下载目录(自定义,哪里都行),然后执行下面的命令

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

如果第一行代码下载缓慢,可以直接从浏览器下载,下载地址为:https://ollama.com/download/ollama-linux-amd64.tgz
然后将其上传到上面的自定义目录中,最后运行第二行代码将其解压到/usr目录中。
2.2 启动 Ollama并验证
输入以下命令启动 Ollama:

ollama serve

另开启一个终端,输入以下命令,验证ollama是否运行成功

ollama -v

2.3 将 Ollama 添加为自启动服务(推荐,这样每次登陆服务器,就可以自启动了,不需要每次都手动地开启服务
首先,为 Ollama 创建用户和组:

sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)

然后在该位置:/etc/systemd/system/ollama.service 创建服务文件
具体步骤为:
a. 输入以下命令以使用 vim 打开(或创建)服务文件

sudo vim /etc/systemd/system/ollama.service

b. 进入插入模式编辑文件

c. 在 Vim 编辑器中拷贝输入以下内容:
  拷贝下面内容,然后粘贴到上述vim编辑器中即可。

[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"[Install]
WantedBy=default.target

d. 保存并退出 Vim

e. 验证文件是否保存成功
为了确保文件已正确保存,可以查看文件内容:

cat /etc/systemd/system/ollama.service

f. 重新加载 systemd 配置
让 systemd 识别新创建的服务文件:

sudo systemctl daemon-reload

g. 启动并启用服务
启动 Ollama 服务并设置为开机自启:

sudo systemctl start ollama.service
sudo systemctl enable ollama.service

h. 检查服务状态
验证服务是否正在运行:

sudo systemctl status ollama.service

你应该看到类似以下的输出,表示服务正在运行:

3. 下载deepseek-r1:1.5b 、deepseek-r1:7b (https://ollama.com/library/deepseek-r1)
打开windows cmd命令行或者linux命令行,输入:

ollama run deepseek-r1:1.5b

即可下载DeepSeek-R1-Distill-Qwen-1.5B到自己的电脑上。

输入

ollama run deepseek-r1:7b

即可下载DeepSeek-R1-Distill-Qwen-7B到自己的电脑上。

默认模型保存位置如下:

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users\%username%\.ollama\models

下载安装后可以进入命令行中进行验证:

4. 加入deepseek到pycharm中
1)启动 PyCharm 客户端,点击左侧导航栏中的Plugins,进入 Maeketplace,在搜索框中输入 Proxy AI(内含CodeGPT),查找相应扩展应用,并点击安装

2)选择已安装页签,可查看到Proxy AI插件,显示在列。

3) 在pycharm中创建一个python工程(我的版本是pycharm 2023.3.7,有的高级版本可能直接在刚才的首页就可以找到后面所要的东西,请自己尝试),然后点击 PyCharm 主界面,选择File按钮, 点击Settings按钮。在弹出的窗口中,选择Tools > CodeGPT > Providers

4) 找到Ollama(Local),选择刚刚安装的deepseek-r1:1.5b,点击OK就可以了:

5) 完成上述操作后,就可以愉快的在PyCharm中使用DeepSeek-r1实现AI编程学习了,左侧是代码编辑界面,右侧是r1大模型,直接对话式提问,省去了来回不同页面折腾的麻烦:

大家可以自行感受一下DeepSeek-r1:1.5b大模型的回复延时,几乎1~2秒钟就可以响应,效果还算可以。

另外,CodeGPT插件显示了Tokens数,只是一个数字统计,无任何费用,因为使用的是本地自己电脑的算力哦。

参考文献:
1. 超详细,DeepSeek 接入PyCharm实现AI编程!(支持本地部署DeepSeek及官方DeepSeek接入),建议收藏! - 狂师 - 博客园

2. PyCharm接入本地DeepSeek R1实现AI编程 - 久曲健 - 博客园

3. Ubuntu 环境安装和使用Ollama_3ubuntu ollama phi-CSDN博客

4. 在 PyCharm 中使用 - AI 智算产品文档

5. Ollama 安装与配置 - Linux 系统篇 【推荐看这个,和英文版一样的

6.  Ollama 安装与配置 - Linux 系统篇-官方英文版教程


http://www.ppmy.cn/devtools/164653.html

相关文章

【计算机网络入门】初学计算机网络(九)

目录 1.令牌传递协议 2. 局域网&IEEE802 2.1 局域网基本概念和体系结构 3. 以太网&IEEE802.3 3.1 MAC层标准 3.1.1 以太网V2标准 ​编辑 3.2 单播广播 3.3 冲突域广播域 4. 虚拟局域网VLAN 1.令牌传递协议 先回顾一下令牌环网技术,多个主机形成…

MyBatis的关联映射

前言 在实际开发中,对数据库的操作通常会涉及多张表,MyBatis提供了关联映射,这些关联映射可以很好地处理表与表,对象与对象之间的的关联关系。 一对一查询 步骤: 先确定表的一对一关系确定好实体类,添加关…

vue3+nuxt中监听sessionStorage.setItem,数据发生变化动态获取响应

在写项目时,遇见一个未读消息的功能,当消息已读时,减少一条未读消息提示,需要实现当sessionStorage.setItem存储的数据发生改变时,响应式的获取并显示,但是由于sessionStorage 的 setItem 操作本身并不会触…

深度学习-137-LangGraph之应用实例(六)构建RAG问答系统带条件边分支

文章目录 1 大语言模型2 带分支的RAG系统2.1 处理文本构建Document2.2 向量存储2.3 自定义工具2.4 创建图2.4.1 预构建的MessagesState2.4.2 编排图2.4.3 可视化图2.5 测试调用3 参考附录使用langgraph框架构建一个带有条件分支的智能问答系统。创建一个能够从网页文档中提取信…

mac 安装node提示 nvm install v14.21.3 failed可能存在问题

如果你在 macOS 上使用 nvm(Node Version Manager)安装 Node.js 版本 v14.21.3 时遇到安装失败的问题,可以按照以下步骤进行排查和解决: 1. 确认 nvm 安装是否正确 首先,确认你的 nvm 是否正确安装,并且能…

【FL0093】基于SSM和微信小程序的微信点餐系统小程序

🧑‍💻博主介绍🧑‍💻 全网粉丝10W,CSDN全栈领域优质创作者,博客之星、掘金/知乎/b站/华为云/阿里云等平台优质作者、专注于Java、小程序/APP、python、大数据等技术领域和毕业项目实战,以及程序定制化开发…

Ubuntu 下 nginx-1.24.0 源码分析 - ngx_list_init

ngx_list_init 定义在 src\core\ngx_list.h static ngx_inline ngx_int_t ngx_list_init(ngx_list_t *list, ngx_pool_t *pool, ngx_uint_t n, size_t size) {list->part.elts ngx_palloc(pool, n * size);if (list->part.elts NULL) {return NGX_ERROR;}list->par…

如何将一台服务器的pip环境迁移到另一个机器?

在没有网络的情况下,将一台服务器的 pip 环境迁移到另一台机器,可按以下步骤进行操作: 步骤一:在源服务器上导出已安装的包列表 在有网络且已安装所需 Python 包的源服务器上,使用以下命令导出已安装的 Python 包列表: pip freeze > requirements.txt该命令会将当前…