DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)
DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)
目录
利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)
设计思路
输出结果
核心代码
相关文章
DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)
DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)实现
利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)
设计思路
后期更新……
输出结果
[ 1. 0.06747879 -0.97085008]
data_x (300, 3) [[ 1. 0.83749402 0.80142971][ 1. -0.93315714 0.91389867][ 1. -0.72558136 -0.43234329][ 1. 0.21216637 0.88845027][ 1. 0.70547108 -0.99548153]]
因为Linear_function函数无意义,经过Linear_function函数处理后,data_x等价于data_z
data_y (300,) [-1. -1. -1. -1. 1.]
data_x: (300, 3)
data_z: (300, 3)
data_y: (300,)
[228 106 146 250 91 214 47 49 178 90]
Number of iterations: 26Plot took 0.10 seconds.
Plot took 0.04 seconds.
Target weights: [ -0.49786797 5.28778784 -11.997255 ]
Target in-sample error: 3.33%
Target out-of-sample error: 6.21%
Hypothesis (N=300) weights: [-0.45931854 3.20434478 -7.70825364]
Hypothesis (N=300) in-sample error: 4.33%
Hypothesis (N=300) out-of-sample error: 6.08%
Hypothesis (N=10) weights: [-1.35583449 3.90067866 -5.99553537]
Hypothesis (N=10) in-sample error: 10.00%
Hypothesis (N=10) out-of-sample error: 12.87%
Error history took 88.89 seconds.
Plot took 17.72 seconds.
Plot took 35.88 seconds.
GD_w_hs[-1] [-1.35583449 3.90067866 -5.99553537]
dimension_z 5
data_x (30, 3) [[ 1. -0.0609991 -0.15447425][ 1. -0.13429796 -0.89691689][ 1. 0.12475253 0.36980185][ 1. -0.0182513 0.74771272][ 1. 0.50585605 -0.04961719]]
因为Linear_function函数无意义,经过Linear_function函数处理后,data_x等价于data_z
data_y (30,) [-1. 1. 1. 1. -1.]Plot took 1.02 seconds.
Number of iterations: 105Plot took 1.03 seconds.
Target weights: [-3 2 3 6 9 10]
Hypothesis weights: [-1.23615696 -0.9469097 1.76449666 2.09453304 5.62678124 5.06054409]
Hypothesis in-sample error: 10.00%
Hypothesis out-of-sample error: 15.47%
Plot took 16.58 seconds.
GD_w_hs[-1] [-1.23615696 -0.9469097 1.76449666 2.09453304 5.62678124 5.06054409]
核心代码
def in_sample_error(z, y, logisticGD_function):y_h = (logisticGD_function(z) >= 0.5)*2-1return np.sum(y != y_h) / float(len(y))def estimate_out_of_sample_error(Product_x_function, NOrderPoly_Function,Pre_Logistic_function, logisticGD_function, N=10000, Linear_function_h=None):x = np.array([Product_x_function() for i in range(N)])z = np.apply_along_axis(NOrderPoly_Function, 1, x)if not Linear_function_h is None:z_h = np.apply_along_axis(Linear_function_h, 1, x)else:z_h = zy = Pre_Logistic_function(z)y_h = (logisticGD_function(z_h) >= 0.5)*2-1return np.sum(y != y_h) / float(N)def ErrorCurve_Plot(N,GD_w_hs, cross_entropy_error):start_time = time.time()fig = plt.figure() # figsize=(8, 6)ax = fig.add_subplot(1, 1, 1)ax.set_xlabel(r'Iteration', fontsize=12)ax.set_ylabel(r'In-Sample Error ($E_{in}$)', fontsize=12)ax.set_title(r'Gradient Descent Evolution, N={}'.format(N), fontsize=12)ax.set_xlim(0, GD_w_hs.shape[0]-1)ax.set_ylim(0, 1)ax.xaxis.grid(color='gray', linestyle='dashed')ax.yaxis.grid(color='gray', linestyle='dashed')ax.set_axisbelow(True)ax.plot(range(GD_w_hs.shape[0]), np.apply_along_axis(cross_entropy_error, 1, GD_w_hs), 'r-')plt.show()print('Plot took {:.2f} seconds.'.format(time.time()-start_time))
DL之GD:利用LogisticGD算法(梯度下降)依次基于一次函数和二次函数分布的数据集实现二分类预测(超平面可视化)相关推荐
- ML之xgboost:利用xgboost算法对breast_cancer数据集实现二分类预测并进行graphviz二叉树节点图可视化
ML之xgboost:利用xgboost算法对breast_cancer数据集实现二分类预测并进行graphviz二叉树节点图可视化 目录 实现结果 实现代码 实现结果
- ML之RFXGBoost:基于RF/XGBoost(均+5f-CrVa)算法对Titanic(泰坦尼克号)数据集进行二分类预测(乘客是否生还)
ML之RF&XGBoost:基于RF/XGBoost(均+5f-CrVa)算法对Titanic(泰坦尼克号)数据集进行二分类预测(乘客是否生还) 目录 输出结果 比赛结果 设计思路 核心代码 ...
- TF之LiR:利用TF自定义一个线性分类器LiR对乳腺癌肿瘤数据集进行二分类预测(良/恶性)
TF之LiR:利用TF自定义一个线性分类器LiR对乳腺癌肿瘤数据集进行二分类预测(良/恶性) 目录 输出结果 设计思路 核心代码 输出结果 设计思路 核心代码 X_train = np.float32 ...
- ML之RFXGBoost:分别基于RF随机森林、XGBoost算法对Titanic(泰坦尼克号)数据集进行二分类预测(乘客是否生还)
ML之RF&XGBoost:分别基于RF随机森林.XGBoost算法对Titanic(泰坦尼克号)数据集进行二分类预测(乘客是否生还) 目录 输出结果 设计思路 核心代码 输出结果 设计思路 ...
- ML:基于自定义数据集利用Logistic、梯度下降算法GD、LoR逻辑回归、Perceptron感知器、SVM支持向量机、LDA线性判别分析算法进行二分类预测(决策边界可视化)
ML:基于自定义数据集利用Logistic.梯度下降算法GD.LoR逻辑回归.Perceptron感知器.支持向量机(SVM_Linear.SVM_Rbf).LDA线性判别分析算法进行二分类预测(决策 ...
- 深度学习的优化算法——梯度下降和随机梯度下降
深度学习的优化算法--梯度下降和随机梯度下降 优化算法在深度学习中存在的问题 优化在深度学习中有很多挑战,下面描述其中两个,局部最小值和鞍点. 1.局部最小值 深度学习模型的目标函数可能存在若干极点- ...
- DL之LSTM:基于《wonderland爱丽丝梦游仙境记》小说数据集利用LSTM算法(层加深,基于keras)对单个character字符预测
DL之LSTM:基于<wonderland爱丽丝梦游仙境记>小说数据集利用LSTM算法(层加深,基于keras)对单个character字符预测 目录 基于<wonderland爱丽 ...
- TF之GD:基于tensorflow框架搭建GD算法利用Fashion-MNIST数据集实现多分类预测(92%)
TF之GD:基于tensorflow框架搭建GD算法利用Fashion-MNIST数据集实现多分类预测(92%) 目录 输出结果 实现代码 输出结果 Successfully downloaded t ...
- DL之CNN:利用卷积神经网络算法(2→2,基于Keras的API-Functional)利用MNIST(手写数字图片识别)数据集实现多分类预测
DL之CNN:利用卷积神经网络算法(2→2,基于Keras的API-Functional)利用MNIST(手写数字图片识别)数据集实现多分类预测 目录 输出结果 设计思路 核心代码 输出结果 下边两张 ...
最新文章
- 如何让自学更有效率?
- 招不招新人?IT经理很纠结.
- 最精准的view,canvas,surface之间的关系
- 【.NET深呼吸】基础:自定义类型转换
- 深入理解c++中的函数模板
- android默认exported_android:exported 属性详解-阿里云开发者社区
- 数据库新增幂等操作_使用数据库唯一键实现事务幂等性
- SpringBoot 动态创建多定时任务
- spark学习-71-源代码:Endpoint模型介绍(3)-Endpoint SendAsk流程
- But Wang Xing, who is concerned about long-term
- 调查作业时,注意 【 调查深度 】 ,以及总结 【 中间成果物 】
- 用python实现网上书店
- PE制作实录 —— 定义我的 PE 工具箱
- 基于vue的电商后台管理系统
- 是时候拥抱ViewBinding了~
- Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-Scale Convolutional Archit
- mysql linux .frm位置_linux 使用mysqlfrm
- Fbx File Format Identifier
- 全国地铁数据爬取-python
- 云原生之下,百度智能云Palo如何驰骋大数据疆场?
热门文章
- 10月25日lol服务器维护,《LOL》lol10月25日停机维护到什么时候 10.25维护结束时间...
- redis哨兵集群数据迁移_redis集群数据迁移—redis-migrate-tool神器
- 将特定像素点在图像上连接起来_图像分割【论文解读】快速图像分割的SuperBPD方法 CVPR-2020...
- 一步步实施 DevOps (三)
- 【Prince2科普】Prince2的七大原则(5)
- J2EE的13个规范总结
- VISUAL STUDIO 2008 破解方法
- 二维码会被人类扫完吗?
- YGC前后新生代变大?
- 如何成为一位「不那么差」的程序员