Python梯度下降算法

embedded/2024/10/9 13:23:47/

梯度下降(Gradient Descent)是机器学习中用于最小化损失函数的优化算法。在Python中,可以通过手动实现或使用现有的库(如scikit-learn)来应用梯度下降算法。以下是手动实现简单线性回归问题的梯度下降算法的示例:

1. 定义损失函数(Cost Function)

假设我们使用的是均方误差(Mean Squared Error, MSE)作为损失函数:

[ \text{MSE} = \frac{1}{n} \sum_{i=1}^{n} (y_i - (w \cdot x_i + b))^2 ]

其中,( y_i ) 是真实值,( w \cdot x_i + b ) 是预测值,( w ) 是权重,( b ) 是偏置,( n ) 是样本数量。

2. 计算梯度

对于权重 ( w ) 和偏置 ( b ) 的梯度分别为:

[ \frac{\partial \text{MSE}}{\partial w} = -2 \cdot \frac{1}{n} \sum_{i=1}^{n} (y_i - (w \cdot x_i + b)) \cdot x_i ]

[ \frac{\partial \text{MSE}}{\partial b} = -2 \cdot \frac{1}{n} \sum_{i=1}^{n} (y_i - (w \cdot x_i + b)) ]

3. 更新权重和偏置

使用梯度下降更新规则:

[ w := w - \alpha \cdot \frac{\partial \text{MSE}}{\partial w} ]

[ b := b - \alpha \cdot \frac{\partial \text{MSE}}{\partial b} ]

其中,( \alpha ) 是学习率。

4. Python实现

python">import numpy as np# 假设X是特征矩阵,y是目标变量
X = np.array([[1], [2], [3], [4]])
y = np.array([2, 4, 6, 8])# 初始化权重和偏置
w = 0.0
b = 0.0# 学习率和迭代次数
learning_rate = 0.01
iterations = 1000# 梯度下降
for i in range(iterations):# 预测值y_pred = np.dot(X, w) + b# 计算损失loss = (1/len(X)) * np.sum((y - y_pred) ** 2)# 计算梯度dw = (-2/len(X)) * np.dot(X.T, (y - y_pred))db = (-2/len(X)) * np.sum(y - y_pred)# 更新权重和偏置w -= learning_rate * dwb -= learning_rate * db# 打印损失if i % 100 == 0:print(f"Iteration {i}: w={w}, b={b}, loss={loss}")print(f"Final parameters: w={w}, b={b}")

在这个示例中,我们使用了简单的梯度下降算法来拟合线性回归模型。对于更复杂的模型和优化问题,可能需要更高级的优化算法,如随机梯度下降(SGD)、批量梯度下降(Batch Gradient Descent)或小批量梯度下降(Mini-batch Gradient Descent)。

此外,scikit-learn库提供了许多内置的优化器,如SGDRegressorSGDClassifier,它们可以方便地应用于各种机器学习任务。


http://www.ppmy.cn/embedded/39828.html

相关文章

那些年使用过的UA头

一些WAF会根据扫描器UA头进行屏蔽 UA头 在sqlmap 中可以使用 –random-agnet /xx.txt 来更换UA头 Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36 OPR/26.0.1656.60 Opera/8.0 (Windows NT 5.1; U; en) Mozi…

【JS】call和 apply函数的详解

JavaScript 中 call() 和 apply() 函数的详解 在JavaScript中,call()和apply()都是非常重要的方法,用于调用函数时指定函数体内的this的值,从而实现不同对象之间的方法共享。尽管它们的功能非常相似,但在实际使用中各有其优势和特…

【C++】map和set的基础详解

💐 🌸 🌷 🍀 🌹 🌻 🌺 🍁 🍃 🍂 🌿 🍄🍝 🍛 🍤 📃个人主页 :阿然成长日记 …

Python_AI库 Pandas的loc和iloc的区别与使用实例

Python中Pandas的loc和iloc的区别与使用实例 在Pandas中,loc和iloc是两个常用的方法,用于基于标签(label)和整数位置(integer location)来选择数据。尽管两者在功能上有重叠,但它们在用法和性能…

【ARM 嵌入式 C 字符串系列 23.9 -- strcmp 与 strncmp 在使用上的区别以及注意事项】

请阅读【嵌入式开发学习必备专栏】 文章目录 strcmp 与 strncmp 使用介绍strcmpstrncmp使用建议 strcmp 与 strncmp 使用介绍 strcmp 和 strncmp 都是 C 语言标准库中用于比较两个字符串的函数&#xff0c;它们定义在 <string.h> 头文件中。这两个函数在功能上相似&…

Rancher-Kubewarden-保姆级教学-含Demo测试

一、什么是Kubewarden&#xff1f; What is Kubewarden? | Kubewarden 1、就是容器集群的准入策略引擎。 1、使用的策略其实就是k8s原生的security context. 2、使用WebAssembly来编写策略。 1、WebAssembly&#xff0c;可以使用擅长的开发语言来编写策略。&#xff08;下面的…

Leedcode题目:移除链表元素

题目&#xff1a; 这个题目就是要我们将我们的链表中的值是val的节点删除。 我们题目提供的接口是 传入了指向一个链表的第一个节点的指针&#xff0c;和我们要删除的元素的值val&#xff0c;不只要删除第一个&#xff0c; 思路 我们这里可以创建一个新的链表&#xff0c;…

模拟集成电路(3)----单级放大器(共源极)

模拟集成电路(3)----单级放大器&#xff08;共源极&#xff09; 放大是模拟电路的基本功能 大多数自然模拟信号太小而无法处理需要足够的信噪比 理想的放大器 线性&#xff1a;无限的幅度和频率范围 输入阻抗无限大 输出阻抗无限小 共源放大器 共源放大器就是将源极接A…