11.19 机器学习-岭回归+拉索回归+逻辑回归

news/2024/11/24 20:18:28/

# 欠拟合 训练不够

# 过拟合 训练太够了 噪声也学进去了

# 一般来说w的值越大 误差越大 w的值小误差小 但也不能太小 不然失去了应用的意义

# 防止 欠拟合和过拟合的方式 就岭回归和拉索回归  正则化

# 本质上就是牺牲模型在训练集上的正确率来提高推广、泛化能力,W在数值上越小越好,这样能抵抗数值的扰动。同时为了保证模型的正确率W又不能极小。

# **因此将原来的损失函数加上一个惩罚项使得计算出来的模型W相对小一些,就是正则化**。

# 这里面损失函数就是原来固有的损失函数,比如回归的话通常是MSE,然后在加上一部分惩罚项来使得计算出来的模型W相对小一些来带来泛化能力。

# 岭回归Ridge

# 在 原来的均方差函数的基础上加一个 各个W的欧式距离 这样让均方差最小的同时 还要让各个W之间的距离变小也就是 w的值要小 变相实现了减小w的值 但准确率肯定降了

# 特点:

# - 岭回归不会将权重压缩到零,这意味着所有特征都会保留在模型中,但它们的权重会被缩小。

# - 适用于特征间存在多重共线性的情况。

# - 岭回归产生的模型通常更为平滑,因为它对所有特征都有影响。


 

# 拉索回归Lasso

# 在 原来的均方差函数的基础上加一个 各个W的曼哈顿距离 这样让均方差最小的同时 还要让各个W之间的距离变小也就是 w的值要小 变相实现了减小w的值 但准确率肯定降了

# 特点:

# - 拉索回归可以将一些权重压缩到零,从而实现特征选择。这意味着模型最终可能只包含一部分特征。

# - 适用于特征数量远大于样本数量的情况,或者当特征间存在相关性时,可以从中选择最相关的特征。

# - 拉索回归产生的模型可能更简单,因为它会去除一些不重要的特征。

# API

# 具有L2正则化的线性回归-岭回归

# sklearn.linear_model.Ridge()

# 1 参数:

# (1)alpha, default=1.0,正则项力度 惩罚力度 各w的距离的值  惩罚力度小准确率高 鲁棒性差

# (2)fit_intercept, 是否计算偏置, default=True

# (3)solver, {‘auto’, ‘svd’, ‘cholesky’, ‘lsqr’, ‘sparse_cg’, ‘sag’, ‘saga’, ‘lbfgs’}, default=’auto’

# 当值为auto,并且数据量、特征都比较大时,内部会随机梯度下降法。

# (4)normalize:,default=True, 数据进行标准化,如果特征工程中已经做过标准化,这里就该设置为False

# (5)max_iterint, default=None,梯度解算器的最大迭代次数,默认为15000

# 2 属性

# coef_ 回归后的权重系数

# intercept_ 偏置

# 说明:SGDRegressor也可以做岭回归的事情,比如SGDRegressor(penalty='l2',loss="squared_loss"),但是其中梯度下降法有些不同。所以推荐使用Ridge实现岭回归

from sklearn.linear_model import Ridge,Lasso

from sklearn.datasets import fetch_california_housing

from sklearn.model_selection import train_test_split

from sklearn.preprocessing import StandardScaler

def ridge1():

    x,y=fetch_california_housing(data_home="assets/datasets",return_X_y=True)

    scaler1=StandardScaler()

    model1=Ridge(alpha=1.0,fit_intercept=True,solver="auto",max_iter=1000)

    x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666,train_size=0.7)

    x_train_stand=scaler1.fit_transform(x_train)

    x_test_stand=scaler1.transform(x_test)

    model1.fit(x_train_stand,y_train)

    score1=model1.score(x_test_stand,y_test)

    print(score1)

    pass

"""

sklearn.linear_model.Lasso()

参数:

1. **alpha (float, default=1.0)**:

   - 控制正则化强度;必须是非负浮点数。较大的 alpha 增加了正则化强度。

2. **fit_intercept (bool, default=True)**:

   - 是否计算此模型的截距。如果设置为 False,则不会使用截距(即数据应该已经被居中)。

3. **precompute (bool or array-like, default=False)**:

   - 如果为 True,则使用预计算的 Gram 矩阵来加速计算。如果为数组,则使用提供的 Gram 矩阵。

4. **copy_X (bool, default=True)**:

   - 如果为 True,则复制数据 X,否则可能对其进行修改。

5. **max_iter (int, default=1000)**:

   - 最大迭代次数。

6. **tol (float, default=1e-4)**:

   - 精度阈值。如果更新后的系数向量减去之前的系数向量的无穷范数除以 1 加上更新后的系数向量的无穷范数小于 tol,则认为收敛。

7. **warm_start (bool, default=False)**:

   - 当设置为 True 时,再次调用 fit 方法会重新使用之前调用 fit 方法的结果作为初始估计值,而不是清零它们。

8. **positive (bool, default=False)**:

   - 当设置为 True 时,强制系数为非负。

9. **random_state (int, RandomState instance, default=None)**:

   - 随机数生成器的状态。用于随机初始化坐标下降算法中的随机选择。

10. **selection ({'cyclic', 'random'}, default='cyclic')**:

    - 如果设置为 'random',则随机选择坐标进行更新。如果设置为 'cyclic',则按照循环顺序选择坐标。

属性:

1. **coef_**

   - 系数向量或者矩阵,代表了每个特征的权重。

2. **intercept_ **

   - 截距项(如果 fit_intercept=True)。

3. **n_iter_ **

   - 实际使用的迭代次数。

4. **n_features_in_ (int)**:

   - 训练样本中特征的数量。

"""

def lasso1():

    x,y=fetch_california_housing(data_home="assets/datasets",return_X_y=True)

    scaler1=StandardScaler()

    model1=Lasso(alpha=1.0,fit_intercept=True,max_iter=1000,positive=True)

    x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666,train_size=0.7)

    x_train_stand=scaler1.fit_transform(x_train)

    x_test_stand=scaler1.transform(x_test)

    model1.fit(x_train_stand,y_train)

    score1=model1.score(x_test_stand,y_test)

    print(score1)

    pass


 

if __name__=="__main__":

    # ridge1()

    lasso1()

# 逻辑回归(Logistic Regression)是机器学习中的一种分类模型,**逻辑回归是一种分类算法**,虽然名字中带有回归,但是它与回归之间有一定的联系。由于算法的简单和高效,在实际中应用非常广泛

# 一般用于二分类问题 只有两个结果的

# 使用一个sigmoid激活函数 把线性回归的结果传入进去 这个sigmoid激活函数 的值域在[0,1] 以0.5为分界线进行分类

# 损失函数 变为了复合函数


 

# API

# sklearn.linear_model.LogisticRegression()

# 参数:

#   fit_intercept bool, default=True 指定是否计算截距

#   max_iter int, default=100  最大迭代次数。迭代达到此数目后,即使未收敛也会停止。

# 模型对象:

#   .coef_ 权重

#   .intercept_ 偏置

#   predict()预测分类

#   predict_proba()预测分类(对应的概率)

#   score()准确率

from sklearn.datasets import load_iris

from sklearn.linear_model import LogisticRegression

from sklearn.model_selection import train_test_split

def logistic_regression1():

    x,y=load_iris(return_X_y=True)

    index=y!=2

    y=y[index]

    x=x[index]

    x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666,train_size=0.7)

    model1=LogisticRegression()

    model1.fit(x_train,y_train)

    score1=model1.score(x_test,y_test)

    print(score1)


 

if __name__=="__main__":

    logistic_regression1()


http://www.ppmy.cn/news/1549620.html

相关文章

30. 并发编程

一、什么是多任务 如果一个操作系统上同时运行了多个程序,那么称这个操作系统就是 多任务的操作系统,例如:Windows、Mac、Android、IOS、Harmony 等。如果是一个程序,它可以同时执行多个事情,那么就称为 多任务的程序。…

20221403郑骁恒-第十一周预习报告

AI对学习内容的总结 网络通信基础: 介绍了不同机器上的程序如何通过网络进行通信。强调了C语言在编写网络代码中的重要性,尤其是在低层次的网络编程中。 服务器和客户端: 解释了网络应用程序通常需要服务器和客户端两个独立的程序。通过一个…

AMD(Xilinx) FPGA配置Flash大小选择

目录 1 FPGA配置Flash大小的决定因素2 为什么选择的Flash容量大小为最小保证能够完成整个FPGA的配置呢? 1 FPGA配置Flash大小的决定因素 在进行FPGA硬件设计时,选择合适的配置Flash是我们进行硬件设计必须考虑的,那么配置Flash大小的选择由什…

STM32完全学习——外部中断

一、嵌套向量中断控制器 我们在这里使用标准库的方式来处理。因此只需要调用几个函数就可以了。 NVIC_InitTypeDef NVIC_InitStruct; NVIC_PriorityGroupConfig(NVIC_PriorityGroup_1); //中断优先级分组 分1组NVIC_SetVectorTable(NVIC_VectTab_FLASH, 0x0); …

【unity小技巧】unity常用的编辑器扩展

文章目录 1. **自定义 Inspector(Inspector 面板)**示例: 2. **Editor Window(自定义编辑器窗口)**示例: 3. **PropertyDrawer(自定义属性绘制)**示例: 4. **菜单项&…

修改仓库中子模块并推送到远程仓库的指定分支

因为现在修改的是仓库的子模块的东西,我们要先提交子模块,然后在提交主题仓库。 提交的时候我们要 首先,进入 XGBDIM 子模块目录。 cd XGBDIM查看子模块中的更改情况,确认哪些文件需要添加和提交。 git status添加子模块中的文件…

hash表和B树

Hash 表的优缺点 优点: 快速查找:Hash 表可以提供快速的插入操作和查找操作。不论哈希表中有多少数据,插入和删除(有时包括查找)只需要接近常量的时间即 O(1) 的时间级。代码简单:实现哈希表的代码相对简…

python代码制作数据集的测试和数据质量检测思路

前言 本文指的数据集为通用数据集,并不单是给机器学习领域使用。包含科研和工业领域需要自己制作数据集的。 首先,在制作大型数据集时,代码错误和数据问题可能会非常复杂。 前期逻辑总是简单的,库库一顿写,等排查的时…