目录
1、前言
2、环境准备
3、本地部署
3.1、安装ollama
3.2、部署deepseek-r1模型
4、Python接入本地模型
4.1、示例代码
4.2、附加一些功能
4.3、其他的数据库
4.3.1、PostgreSQL 示例
4.3.2、SQLite 示例
5、总结
1、前言
在当今数据驱动的时代,数据分析已成为企业决策和业务优化的关键。DeepSeek 作为一款强大的数据分析工具,能够帮助我们快速从海量数据中提取有价值的信息。本文将详细介绍如何将 ollama+Python+DeepSeek 与数据库结合,进行高效的数据分析。
2、环境准备
这里我自己使用的是Windows11操作系统,因此接下来全部以Windows11操作系统为例。
- windows11,配置8vCPU,16GB内存,512G磁盘
- Mysql数据库,这里使用了MySQL5.7版本
- Python环境,这里使用的是Python 3.11执行器
3、本地部署
3.1、安装ollama
首先,到ollama官网下载对应版本,windows操作系统需要windows10及以上的版本。下载完成后,直接点击安装即可。

安装完成后,在终端窗口输入以下命令:
ollama -v
可以看到对应的ollama版本,即表示安装成功。

3.2、部署deepseek-r1模型
在ollama官网,搜索我们要部署的模型,这里选择deepseek-r1模型,可以看到列出所有蒸馏版本,我们这里由于配置原因,选择1.5b版本。

接着输入以下命令,进行拉取模型:
ollama pull deepseek-r1:1.5b# 当然也可以一部到位直接启动
ollama run deepseek-r1:1.5b
显示success,即表示拉取成功。

拉取成功后,启动该模型:
ollama run deepseek-r1:1.5b
到此,已经启动成功:

可以进行对话了:

4、Python接入本地模型
这里先给出Python这次所需要的一些依赖库,requirements.txt:
通过命令安装依赖库:
pip install -r requirements.txt
4.1、示例代码
假设我们有一张表sale_orders的DDL如下:
CREATE TABLE `wxmapp`.`Untitled` (`id` int NOT NULL,`name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NULL DEFAULT NULL COMMENT '销售人员名称',`order_name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NULL DEFAULT NULL COMMENT '订单车型',`sale_time` datetime NULL DEFAULT NULL COMMENT '销售日期',`sale_count` int NULL DEFAULT NULL COMMENT '销售数量',PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_0900_ai_ci ROW_FORMAT = Dynamic;
预生成的数据:

接着,我们尝试让DeepSeek分析出销量最高的订单车型。以下是完整代码:
python">import mysql.connector
import ollama# 数据库连接配置(使用mysql.py中的配置)
config = {'user': 'xxx','password': 'xxx','host': 'xxx','database': 'xxx','raise_on_warnings': True,'charset': 'utf8mb4'
}# 连接数据库
try:conn = mysql.connector.connect(**config)cursor = conn.cursor()cursor.execute("SELECT order_name, sale_count FROM sale_orders")rows = cursor.fetchall()# 使用 DeepSeek 处理数据result = ollama.generate(model='deepseek-r1:1.5b',prompt=f'有一张销售订单数据:{rows}。其中order_name表示订单车型名称,sale_count表示销售数量。现在请分析销量前三的订单车型。直接给出结果,不需要给出推理过程').get('response', '')print(f"DeepSeek Analysis: {result}")except mysql.connector.Error as err:print(f"Error: {err}")finally:# 关闭连接if conn.is_connected():cursor.close()conn.close()
运行后得到结果:

这里只是简单做了个demo示例,虽然看上去还不如自己写sql来的简单。
4.2、附加一些功能
上面是简单的DeepSeek进行数据分析的功能,对于数据量小的来说可能还行,但是对于数据量大的来说还是够呛。但是我们可以用他来进行一些数据结构的完整性检查、有效性检查以及给出一些合理的建议。
这里我添加了一些额外的功能,用于扫描库表是否包含了主键,是否字段长度过长没有约束,是否时间类型用了字符串等。
python"># 连接数据库
try:conn = mysql.connector.connect(**config)cursor = conn.cursor()# 执行查询# 获取索引信息cursor.execute("SHOW INDEX FROM sale_orders")indexes = cursor.fetchall()print("\n索引信息:")for index in indexes:print(f"索引名称: {index[2]}, 类型: {'唯一索引' if index[1] == 0 else '普通索引'}, 字段: {index[4]}")# 增强主键检测cursor.execute("""SELECT GROUP_CONCAT(DISTINCT COLUMN_NAME) FROM INFORMATION_SCHEMA.KEY_COLUMN_USAGE WHERE TABLE_NAME = 'sale_orders' AND CONSTRAINT_NAME = 'PRIMARY'""")pk_info = cursor.fetchall()# 多层空值检查和类型验证if pk_info and len(pk_info) > 0 and pk_info[0] and len(pk_info[0]) > 0:primary_key = pk_info[0][0]if isinstance(primary_key, str):columns = primary_key.split(',')columns_count = len(columns)columns_str = primary_keyelse:columns_count = 0columns_str = ''else:columns_count = 0columns_str = ''status_desc = (f'复合主键({columns_count}个字段)' if columns_count > 1 else'单字段主键' if columns_count == 1 else'无主键')print(f"\n主键有效性检查:{status_desc} ({columns_str})")# 字段类型效率检查(扩展白名单机制)cursor.execute("""SELECT COLUMN_NAME, COLUMN_TYPE, DATA_TYPE FROM INFORMATION_SCHEMA.COLUMNS WHERE TABLE_NAME = 'sale_orders' AND (DATA_TYPE IN ('text','blob') OR COLUMN_TYPE LIKE '%varchar(255)%' OR NUMERIC_SCALE IS NULL AND DATA_TYPE = 'decimal'OR (COLUMN_NAME LIKE '%time%' AND DATA_TYPE NOT IN ('date','datetime','timestamp')))""")inefficient_columns = cursor.fetchall()print("\n低效字段检测:")for col in inefficient_columns:reason = 'TEXT/BLOB类型' if col[2] in ('text','blob') else \'过度分配的VARCHAR' if 'varchar(255)' in col[1] else \'不精确的DECIMAL类型' if col[2] == 'decimal' and NUMERIC_SCALE is None else \'时间字段使用字符串类型' if 'time' in col[0].lower() and col[2] in ('varchar','text') else '未知类型'print(f"字段 {col[0]}: {col[1]} ({reason})")# 索引有效性评估cursor.execute("SHOW INDEXES FROM sale_orders")indexes = {}for idx in cursor.fetchall():if idx[2] not in indexes:indexes[idx[2]] = {'columns': [], 'unique': idx[1]}indexes[idx[2]]['columns'].append(idx[4])print("\n索引有效性评估:")for idx_name, meta in indexes.items():coverage = '复合索引' if len(meta['columns'])>1 else '单字段索引'score = '★'*(3 if meta['unique'] else 2 if len(meta['columns'])>1 else 1)print(f"{idx_name}: {coverage}({','.join(meta['columns'])}) {score}星评级")# 数据量统计cursor.execute("SELECT COUNT(*) FROM sale_orders")record_count = cursor.fetchone()[0]print(f"\n数据量统计:{record_count}条记录{' (超过500万建议分表)' if record_count > 5000000 else ''}")print("\n" + "="*40 + "\n")except mysql.connector.Error as err:print(f"Error: {err}")finally:# 关闭连接if conn.is_connected():cursor.close()conn.close()
这里只是对单张表的检查:

如果重新封装一下,可以对我们整个库进行扫描,以及对我们数据进行基本的分析:

甚至给出了数据中访问量最高的分析,预测了主题趋势和兴趣点。

4.3、其他的数据库
不仅支持MySQL数据库,同样支持主流的PostgreSQL和SQLite等。
4.3.1、PostgreSQL 示例
python">import psycopg2# 数据库连接配置
conn = psycopg2.connect(dbname="your_database",user="your_username",password="your_password",host="your_host",port="your_port"
)cursor = conn.cursor()
cursor.execute("SELECT * FROM your_table")
rows = cursor.fetchall()for row in rows:print(row)cursor.close()
conn.close()
4.3.2、SQLite 示例
python">import sqlite3# 连接 SQLite 数据库
conn = sqlite3.connect('your_database.db')
cursor = conn.cursor()cursor.execute("SELECT * FROM your_table")
rows = cursor.fetchall()for row in rows:print(row)cursor.close()
conn.close()
5、总结
如今AI火热的年代,大模型+数据分析必然是个趋势。构建从数据提取,到智能分析,再到可视化呈现的全流程自动化,以及风险预测和识别也将成为另一个业务价值呈现点。