from sklearn.linear_model import LinearRegression
LinearRegression(fit_intercept=True,normalize=False,copy_X=True,n_jobs=1)

参数含义:
1.fit_intercept:布尔值,指定是否需要计算线性回归中的截距,即b值。如果为False,那么不计算b值。
2.normalize:布尔值。如果为False,那么训练样本会进行归一化处理。
3.copy_X:布尔值。如果为True,会复制一份训练数据。
4.n_jobs:一个整数。任务并行时指定的CPU数量。如果取值为-1则使用所有可用的CPU。
5.coef_:权重向量。
6.intercept_:截距b值。
方法:
1.fit(X,y):训练模型。
2.predict(X):用训练好的模型进行预测,并返回预测值。
3.score(X,y):返回预测性能的得分。计算公式为:score=(1 - u/v),其中u=((y_true - y_pred) ** 2).sum(),v=((y_true - y_true.mean()) ** 2).sum()
score最大值是1,但有可能是负值(预测效果太差)。score越大,预测性能越好。

rom sklearn.linear_model import RidgeRidge(alpha=1.0, fit_intercept=True, normalize=False,copy_X=True, max_iter=None, tol=1e-3, solver="auto",random_state=None)

参数含义:
1.alpha:正则项系数,值越大正则项占比越大。初始值建议一开始设置为0,这样先确定一个比较好的学习率,学习率一旦确定,给alpha一个较小的值,然后根据验证集上的准确率,增大或减小10倍。10倍是粗调节,当确定了合适的数量级后,再在同一个数量级内细调节。
2.fit_intercept:布尔值,指定是否需要计算截距b值。False则不计算b值。
3.normalize:布尔值。如果等于True,模型训练之前会把数据归一化。这里归一化有两个好处:(1):提升模型的收敛速度,减少寻找最优解的时间。(2)提升模型的精度。
4.copy_X:布尔值。如果设置为True,则会复制一份训练数据。
5.max_iter:整数。指定了最大迭代次数。如果为None,则采用默认值。
6.tol:阈值。判断迭代是否收敛或者是否满足精度的要求。
7.solver:字符串。指定求解最优化问题的算法。
        (1).solver='auto',根据数据集自动选择算法。
        (2).solver='svd',采用奇异值分解的方法来计算。
        (3).solver='cholesky',采用scipy.linalg.solve函数求解最优解。
        (4).solver='sparse_cg',才哟个scipy.sparse.linalg.cg函数来求取最优解。
        (5).solver='sag',采用Stochastic Average Gradient descent算法求解最优化问题。
8.random_state:一个整数或者一个RandomState实例,或者为None。它在solver="sag"时使用。
        (1).如果为整数,则它指定了随机数生成器的种子。
        (2).如果为RandomState实例,则指定了随机数生成器。
        (3).如果为None,则使用默认的随机数生成器。
9.coef_:权重向量。
10.intercept_:截距b的值。
11.n_iter_:实际迭代次数。
方法:
1.fit(X,y):训练模型。
2.predict(X):用训练好的模型去预测,并且返回预测值。
3.score(X,y):返回预测性能的得分。计算公式为:score=(1 - u/v),其中u=((y_true - y_pred) ** 2).sum(),v=((y_true - y_true.mean()) ** 2).sum()
score最大值是1,但有可能是负值(预测效果太差)。score越大,预测性能越好。

from sklearn.linear_model import Lasso
Lasso(alpha=1.0, fit_intercept=True, normalize=False,precompute=False, copy_X=True, max_iter=1000,tol=1e-4, warm_start=False, positive=False,random_state=None, selection='cyclic')

参数含义:
1.alpha:正则化项系数
2.fit_intercept:布尔值,指定是否需要计算截距b值。False则不计算b值。
3.max_iter:指定最大迭代次数。
4.normalize:布尔值。如果等于True,模型训练之前会把数据归一化。这里归一化有两个好处:(1):提升模型的收敛速度,减少寻找最优解的时间。(2)提升模型的精度。
5.precompute:一个布尔值或者一个序列。它决定是否提前计算Gram矩阵来加速计算。
6.tol:阈值。判断迭代是否收敛或者是否满足精度的要求。
7.warm_start:布尔值。如果为True,那么使用前一次训练结果继续训练。否则从头开始训练。
8.positive:布尔值。如果为True,那么强制要求权重向量的分量都为正数。
9.selection:字符串,可以是"cyclic"或"random"。它指定了当每轮迭代的时候,选择权重向量的
哪个分量来更新。
    (1)"random":更新的时候,随机选择权重向量的一个分量来更新。
    (2)"cyclic":更新的时候,从前向后依次选择权重向量的一个分量来更新。
10.random_state:一个整数或者一个RandomState实例,或者None。
    (1):如果为整数,则它指定了随机数生成器的种子。
    (2):如果为RandomState实例,则它指定了随机数生成器。
    (3):如果为None,则使用默认的随机数生成器。
11.coef_:权重向量。
12.intercept_:截距b值。
13.n_iter_:实际迭代次数。
方法:
1.fit(X,y):训练模型。
2.predict(X):用模型进行预测,返回预测值。
3.score(X,y):返回预测性能的得分。计算公式为:score=(1 - u/v)
其中u=((y_true - y_pred) ** 2).sum(),v=((y_true - y_true.mean()) ** 2).sum()
score最大值是1,但有可能是负值(预测效果太差)。score越大,预测性能越好。

from sklearn.linear_model import ElasticNetElasticNet(alpha=1.0, l1_ratio=0.5, fit_intercept=True,normalize=False, precompute=False, max_iter=1000,copy_X=True, tol=1e-4, warm_start=False, positive=False,random_state=None, selection='cyclic')

ElasticNet回归是对Lasso回归和岭回归的融合,其正则化项是L1范数和L2范数的一个权衡。
正则化项为: alpha * l1_ratio * ||w||_1 + 0.5 * alpha * (1 - l1_ratio) * ||w||^2_2
参数含义:
1.alpha:正则化项中alpha值。
2.l1_ratio:正则化项中的l1_ratio值。
3.fit_intercept:布尔值,指定是否需要计算截距b值。False则不计算b值。
4.max_iter:指定最大迭代次数。
5.normalize:布尔值。如果等于True,模型训练之前会把数据归一化。这里归一化有两个好处:(1):提升模型的收敛速度,减少寻找最优解的时间。(2)提升模型的精度。
6.copy_X:布尔值。如果设置为True,则会复制一份训练数据。
7.precompute:一个布尔值或者一个序列。它决定是否提前计算Gram矩阵来加速计算。
8.tol:阈值。判断迭代是否收敛或者是否满足精度的要求。
9.warm_start:布尔值。如果为True,那么使用前一次训练结果继续训练。否则从头开始训练。
10.positive:布尔值。如果为True,那么强制要求权重向量的分量都为正数。
11.selection:字符串,可以是"cyclic"或"random"。它指定了当每轮迭代的时候,选择权重向量的
哪个分量来更新。
    (1)"random":更新的时候,随机选择权重向量的一个分量来更新。
    (2)"cyclic":更新的时候,从前向后依次选择权重向量的一个分量来更新。
12.random_state:一个整数或者一个RandomState实例,或者None。
    (1):如果为整数,则它指定了随机数生成器的种子。
    (2):如果为RandomState实例,则它指定了随机数生成器。
    (3):如果为None,则使用默认的随机数生成器。
13.coef_:权重向量。
14.intercept_:b值。
15.n_iter_:实际迭代次数。
方法:
1.fit(X,y):训练模型。
2.predict(X):用模型进行预测,返回预测值。
3.score(X,y):返回预测性能的得分。计算公式为:score=(1 - u/v)
其中u=((y_true - y_pred) ** 2).sum(),v=((y_true - y_true.mean()) ** 2).sum()
score最大值是1,但有可能是负值(预测效果太差)。score越大,预测性能越好。

from sklearn.linear_model import LogisticRegressionLogisticRegression(penalty='l2', dual=False, tol=1e-4, C=1.0,fit_intercept=True, intercept_scaling=1, class_weight=None,random_state=None, solver='liblinear', max_iter=100,multi_class='ovr', verbose=0, warm_start=False, n_jobs=1)

参数含义:
1.penalty:字符串,指定了正则化策略。默认为"l2"
    (1).如果为"l2",则优化的目标函数为:0.5*||w||^2_2+C*L(w),C>0,
        L(w)为极大似然函数。
    (2).如果为"l1",则优化的目标函数为||w||_1+C*L(w),C>0,
        L(w)为极大似然函数。
2.dual:布尔值。默认为False。如果等于True,则求解其对偶形式。只有在penalty="l2"并且
        solver="liblinear"时才有对偶形式。如果为False,则求解原始形式。当n_samples > n_features,
        偏向于dual=False。
3.tol:阈值。判断迭代是否收敛或者是否满足精度的要求。
4.C:float,默认为1.0.指定了正则化项系数的倒数。必须是一个正的浮点数。他的值越小,正则化项就越大。
5.fit_intercept:bool值。默认为True。如果为False,就不会计算b值。
6.intercept_scaling:float, default 1。
                    只有当solver="liblinear"并且fit_intercept=True时,才有意义。
                    在这种情况下,相当于在训练数据最后一列增加一个特征,该特征恒为1。
                    其对应的权重为b。
7.class_weight:dict or 'balanced', default: None。
                (1)如果是字典,则给出每个分类的权重。按照{class_label: weight}这种形式。
                (2)如果是"balanced":则每个分类的权重与该分类在样本集中出现的频率成反比。
                n_samples / (n_classes * np.bincount(y))
                (3)如果未指定,则每个分类的权重都为1。
8.random_state:int, RandomState instance or None, default: None
                (1):如果为整数,则它指定了随机数生成器的种子。
                (2):如果为RandomState实例,则它指定了随机数生成器。
                (3):如果为None,则使用默认的随机数生成器。
9.solver:字符串,指定求解最优化问题的算法。
        {'newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'},default: 'liblinear'
        (1)solver='liblinear',对于小数据集,'liblinear'是很好的选择。
        对于大规模数据集,'sag'和'saga'处理起来速度更快。
        (2)solver='newton-cg',采用牛顿法
        (3)solver='lbfgs',采用L-BFGS拟牛顿法。
        (4)solver='sag',采用Stochastic Average Gradient descent算法。
        (5)对于多分类问题,只有'newton-cg','sag','saga'和'lbfgs'处理多项损失;
        'liblinear'仅限于'ovr'方案。
        (6)newton-cg', 'lbfgs' and 'sag' 只能处理 L2 penalty,
           'liblinear' and 'saga' 能处理 L1 penalty。
10.max_iter:指定最大迭代次数。default: 100。
            只对'newton-cg', 'sag' and 'lbfgs'适用。
11.multi_class:{'ovr', 'multinomial'}, default: 'ovr'。指定对分类问题的策略。
                (1)multi_class='ovr',采用'one_vs_rest'策略。
                (2)multi_class='multinomal',直接采用多分类逻辑回归策略。
12.verbose:用于开启或者关闭迭代中间输出日志功能。
13.warm_start:布尔值。如果为True,那么使用前一次训练结果继续训练。否则从头开始训练。
14.n_jobs:int, default: 1。指定任务并行时的CPU数量。如果为-1,则使用所有可用的CPU。
15.coef_:权重向量。
16.intercept_:b值。
17.n_iter_:实际迭代次数。
方法:
1.fit(X,y):训练模型。
2.predict(X):用训练好的模型进行预测,并返回预测值。
3.predict_log_proba(X):返回一个数组,数组元素依次是X预测为各个类别的概率的对数值。
4.predict_proba(X):返回一个数组,数组元素依次是X预测为各个类别的概率值。
5.score(X,y):返回预测的准确率。

sklearn中常见的线性模型参数释义相关推荐

  1. AI:人工智能领域之AI基础概念术语之机器学习、深度学习、数据挖掘中常见关键词、参数等5000多个单词中英文对照(绝对干货)

    AI:人工智能领域之AI基础概念术语之机器学习.深度学习.数据挖掘中常见关键词.参数等5000多个单词中英文对照(绝对干货) 导读      本博主基本收集了网上所有有关于ML.DL的中文解释词汇,机 ...

  2. sklearn中GBDT的一些参数、属性、方法的理解

    文章目录 GBDT 分类器 引入 重要参数 loss learning_rate subsample n_estimators criterion max_depth min_samples_leaf ...

  3. sklearn中的xgboost_xgboost来了

    一.xgboost前奏 1,介绍一下啥是xgboost XGBoost全称是eXtreme Gradient Boosting,即极限梯度提升算法.它由陈天奇所设计,致力于让提升树突破自身的计算极限, ...

  4. sklearn中的回归决策树

    回归 决策树通过使用 DecisionTreeRegressor 类也可以用来解决回归问题. 如在分类设置中,拟合方法将数组X和数组y作为参数,只有在这种情况下,y数组预期才是浮点值: 下面是简单的使 ...

  5. sklearn中一些参数

    转载:http://www.cnblogs.com/chenyaling/p/7826229.html 1.监督学习 1.1.广义线性模型 1.1.1.普通最小二乘法  class sklearn.l ...

  6. Python中sklearn中HistGradientBoostingRegressor回归器配置单调约束参数monotonic_cst提高回归模型的抗噪声以及局部扰动的能力

    Python中sklearn中HistGradientBoostingRegressor回归器配置单调约束参数monotonic_cst提高回归模型的抗噪声以及局部扰动的能力 目录

  7. python中算法(sklearn)的最优超参数寻优:skopt贝叶斯搜索

    python中算法(sklearn)的最优超参数寻优:skopt贝叶斯搜索 Jeff Dean在ICML 2019上进行了有关AutoML的演讲,并将自动化分为4个级别 手动构造预测变量,不引入学习的 ...

  8. ML之sklearn:sklearn.metrics中常用的函数参数(比如confusion_matrix等 )解释及其用法说明之详细攻略

    ML之sklearn:sklearn.metrics中常用的函数参数(比如confusion_matrix等 )解释及其用法说明之详细攻略 目录 sklearn.metrics中常用的函数参数 con ...

  9. sklearn 中的线性回归、岭回归、Lasso回归参数配置及示例

    文章目录 线性回归 引入 重要参数 重要属性 重要方法 例子 岭回归 引入 重要参数 重要属性 重要方法 示例 Lasso 回归 引入 重要参数 重要属性 重要方法 示例 本文主要讲一些sklearn ...

最新文章

  1. 虚拟化-第二篇-DC,vCenter,ESXI的安装和配置
  2. 如何在Linux中恢复一个删除了的文件
  3. 基于对象和面向对象编程范式辨析和主流编程语言中的应用
  4. 文件查找工具everything的下载使用
  5. asp.net学习之再论sqlDataSource
  6. T-SQL删除存储过程
  7. java 数组下标6,这里为什么用equals会错,改==就不会?java入门第一集6.8获取数组下标课后练习...
  8. Ubuntu系统中创建虚拟环境
  9. 【HUST】网安|计算机网络安全实验|实验二 DNS协议漏洞利用实验
  10. 织梦dede仿站模板标签大全(最全)附带仿站工具
  11. eda技术试卷_EDA技术及应用试卷D含答案
  12. undo和redo日志
  13. 第4章第1节-不撞南墙不回头-深度优先搜索
  14. 华为HCIP之静态路由
  15. 骨灰级的魔兽伤害计算(包括物理和…
  16. 数据分析初级操作学习【预处理、集中与离散分析、相关分析】
  17. 分布式之Quorum NWR算法
  18. [NAS] Synology (群晖) DSM 7.X 挂载NTFS硬盘
  19. 手动可以执行脚本,crontab执行失败,可能和环境变量有关(如果涉及到环境变量)
  20. 开启CDN 后网站出现 “ 您的连接不是私密连接 ”

热门文章

  1. VeloCloud exec:网络中立对SD-WAN影响有限
  2. c语言从入门到入狱段子,坑人的套路一问一答
  3. ck竞技之王显示服务器连接失败,王国保卫战无法连接服务器是什么原因
  4. zabbix如何添加图表显示内容_自定义 Zabbix 监控指标及图表
  5. Linux内核中_IO,_IOR,_IOW,_IOWR宏
  6. 域控制器组策略:统一修改用户计算机桌面壁纸
  7. [转载]如果你是12306网站架构师,你会如何设计网站的软件架构和硬件系统架构?...
  8. 【转】国内主要工作流厂商分析
  9. 缺失数据处理方法简介
  10. 数字信号处理_QA_2023_超长