DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)

目录

利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)

设计思路

输出结果

核心代码


相关文章
DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)
DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)实现

​​​​​​​

利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)

设计思路

后期更新……

输出结果

 [ 1.          0.06747879 -0.97085008]
data_x (300, 3) [[ 1.          0.83749402  0.80142971][ 1.         -0.93315714  0.91389867][ 1.         -0.72558136 -0.43234329][ 1.          0.21216637  0.88845027][ 1.          0.70547108 -0.99548153]]
因为Linear_function函数无意义,经过Linear_function函数处理后,data_x等价于data_z
data_y (300,) [-1. -1. -1. -1.  1.]
data_x: (300, 3)
data_z: (300, 3)
data_y: (300,)
[228 106 146 250  91 214  47  49 178  90]
Number of iterations: 26Plot took 0.10 seconds.
Plot took 0.04 seconds.
Target weights: [ -0.49786797   5.28778784 -11.997255  ]
Target in-sample error: 3.33%
Target out-of-sample error: 6.21%
Hypothesis (N=300) weights: [-0.45931854  3.20434478 -7.70825364]
Hypothesis (N=300) in-sample error: 4.33%
Hypothesis (N=300) out-of-sample error: 6.08%
Hypothesis (N=10) weights: [-1.35583449  3.90067866 -5.99553537]
Hypothesis (N=10) in-sample error: 10.00%
Hypothesis (N=10) out-of-sample error: 12.87%
Error history took 88.89 seconds.
Plot took 17.72 seconds.
Plot took 35.88 seconds.
GD_w_hs[-1] [-1.35583449  3.90067866 -5.99553537]
dimension_z 5
data_x (30, 3) [[ 1.         -0.0609991  -0.15447425][ 1.         -0.13429796 -0.89691689][ 1.          0.12475253  0.36980185][ 1.         -0.0182513   0.74771272][ 1.          0.50585605 -0.04961719]]
因为Linear_function函数无意义,经过Linear_function函数处理后,data_x等价于data_z
data_y (30,) [-1.  1.  1.  1. -1.]Plot took 1.02 seconds.
Number of iterations: 105Plot took 1.03 seconds.
Target weights: [-3  2  3  6  9 10]
Hypothesis weights: [-1.23615696 -0.9469097   1.76449666  2.09453304  5.62678124  5.06054409]
Hypothesis in-sample error: 10.00%
Hypothesis out-of-sample error: 15.47%
Plot took 16.58 seconds.
GD_w_hs[-1] [-1.23615696 -0.9469097   1.76449666  2.09453304  5.62678124  5.06054409]

核心代码

def in_sample_error(z, y, logisticGD_function):y_h = (logisticGD_function(z) >= 0.5)*2-1return np.sum(y != y_h) / float(len(y))def estimate_out_of_sample_error(Product_x_function, NOrderPoly_Function,Pre_Logistic_function, logisticGD_function, N=10000, Linear_function_h=None):x = np.array([Product_x_function() for i in range(N)])z = np.apply_along_axis(NOrderPoly_Function, 1, x)if not Linear_function_h is None:z_h = np.apply_along_axis(Linear_function_h, 1, x)else:z_h = zy = Pre_Logistic_function(z)y_h = (logisticGD_function(z_h) >= 0.5)*2-1return np.sum(y != y_h) / float(N)def ErrorCurve_Plot(N,GD_w_hs, cross_entropy_error):start_time = time.time()fig = plt.figure()   #  figsize=(8, 6)ax = fig.add_subplot(1, 1, 1)ax.set_xlabel(r'Iteration', fontsize=12)ax.set_ylabel(r'In-Sample Error ($E_{in}$)', fontsize=12)ax.set_title(r'Gradient Descent Evolution, N={}'.format(N), fontsize=12)ax.set_xlim(0, GD_w_hs.shape[0]-1)ax.set_ylim(0, 1)ax.xaxis.grid(color='gray', linestyle='dashed')ax.yaxis.grid(color='gray', linestyle='dashed')ax.set_axisbelow(True)ax.plot(range(GD_w_hs.shape[0]), np.apply_along_axis(cross_entropy_error, 1, GD_w_hs), 'r-')plt.show()print('Plot took {:.2f} seconds.'.format(time.time()-start_time))

DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)相关推荐

  1. ML之xgboost:利用xgboost算法对breast_cancer数据集实现二分类预测并进行graphviz二叉树节点图可视化

    ML之xgboost:利用xgboost算法对breast_cancer数据集实现二分类预测并进行graphviz二叉树节点图可视化 目录 实现结果 实现代码 实现结果

  2. ML之RFXGBoost:基于RF/XGBoost(均+5f-CrVa)算法对Titanic(泰坦尼克号)数据集进行二分类预测(乘客是否生还)

    ML之RF&XGBoost:基于RF/XGBoost(均+5f-CrVa)算法对Titanic(泰坦尼克号)数据集进行二分类预测(乘客是否生还) 目录 输出结果 比赛结果 设计思路 核心代码 ...

  3. TF之LiR:利用TF自定义一个线性分类器LiR对乳腺癌肿瘤数据集进行二分类预测(良/恶性)

    TF之LiR:利用TF自定义一个线性分类器LiR对乳腺癌肿瘤数据集进行二分类预测(良/恶性) 目录 输出结果 设计思路 核心代码 输出结果 设计思路 核心代码 X_train = np.float32 ...

  4. ML之RFXGBoost:分别基于RF随机森林、XGBoost算法对Titanic(泰坦尼克号)数据集进行二分类预测(乘客是否生还)

    ML之RF&XGBoost:分别基于RF随机森林.XGBoost算法对Titanic(泰坦尼克号)数据集进行二分类预测(乘客是否生还) 目录 输出结果 设计思路 核心代码 输出结果 设计思路 ...

  5. ML:基于自定义数据集利用Logistic、梯度下降算法GD、LoR逻辑回归、Perceptron感知器、SVM支持向量机、LDA线性判别分析算法进行二分类预测(决策边界可视化)

    ML:基于自定义数据集利用Logistic.梯度下降算法GD.LoR逻辑回归.Perceptron感知器.支持向量机(SVM_Linear.SVM_Rbf).LDA线性判别分析算法进行二分类预测(决策 ...

  6. 深度学习的优化算法——梯度下降和随机梯度下降

    深度学习的优化算法--梯度下降和随机梯度下降 优化算法在深度学习中存在的问题 优化在深度学习中有很多挑战,下面描述其中两个,局部最小值和鞍点. 1.局部最小值 深度学习模型的目标函数可能存在若干极点- ...

  7. DL之LSTM:基于《wonderland爱丽丝梦游仙境记》小说数据集利用LSTM算法(层加深,基于keras)对单个character字符预测

    DL之LSTM:基于<wonderland爱丽丝梦游仙境记>小说数据集利用LSTM算法(层加深,基于keras)对单个character字符预测 目录 基于<wonderland爱丽 ...

  8. TF之GD:基于tensorflow框架搭建GD算法利用Fashion-MNIST数据集实现多分类预测(92%)

    TF之GD:基于tensorflow框架搭建GD算法利用Fashion-MNIST数据集实现多分类预测(92%) 目录 输出结果 实现代码 输出结果 Successfully downloaded t ...

  9. DL之CNN:利用卷积神经网络算法(2→2,基于Keras的API-Functional)利用MNIST(手写数字图片识别)数据集实现多分类预测

    DL之CNN:利用卷积神经网络算法(2→2,基于Keras的API-Functional)利用MNIST(手写数字图片识别)数据集实现多分类预测 目录 输出结果 设计思路 核心代码 输出结果 下边两张 ...

最新文章

  1. 如何让自学更有效率?
  2. 招不招新人?IT经理很纠结.
  3. 最精准的view,canvas,surface之间的关系
  4. 【.NET深呼吸】基础:自定义类型转换
  5. 深入理解c++中的函数模板
  6. android默认exported_android:exported 属性详解-阿里云开发者社区
  7. 数据库新增幂等操作_使用数据库唯一键实现事务幂等性
  8. SpringBoot 动态创建多定时任务
  9. spark学习-71-源代码:Endpoint模型介绍(3)-Endpoint SendAsk流程
  10. But Wang Xing, who is concerned about long-term
  11. 调查作业时,注意 【 调查深度 】 ,以及总结 【 中间成果物 】
  12. 用python实现网上书店
  13. PE制作实录 —— 定义我的 PE 工具箱
  14. 基于vue的电商后台管理系统
  15. 是时候拥抱ViewBinding了~
  16. Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-Scale Convolutional Archit
  17. mysql linux .frm位置_linux 使用mysqlfrm
  18. Fbx File Format Identifier
  19. 全国地铁数据爬取-python
  20. 云原生之下,百度智能云Palo如何驰骋大数据疆场?

热门文章

  1. 10月25日lol服务器维护,《LOL》lol10月25日停机维护到什么时候 10.25维护结束时间...
  2. redis哨兵集群数据迁移_redis集群数据迁移—redis-migrate-tool神器
  3. 将特定像素点在图像上连接起来_图像分割【论文解读】快速图像分割的SuperBPD方法 CVPR-2020...
  4. 一步步实施 DevOps (三)
  5. 【Prince2科普】Prince2的七大原则(5)
  6. J2EE的13个规范总结
  7. VISUAL STUDIO 2008 破解方法
  8. 二维码会被人类扫完吗?
  9. YGC前后新生代变大?
  10. 如何成为一位「不那么差」的程序员