DL之PerceptronAdalineGD:基于iris莺尾花数据集利用Perceptron感知机和AdalineGD算法实现二分类
DL之Perceptron&AdalineGD:基于iris莺尾花数据集利用Perceptron感知机和AdalineGD算法实现二分类
目录
基于iris莺尾花数据集利用Perceptron感知机算法实现二分类
设计思路
输出结果
核心代码
相关文章
DL之Perceptron&AdalineGD:基于iris莺尾花数据集利用Perceptron感知机和AdalineGD算法实现二分类
DL之Perceptron&AdalineGD:基于iris莺尾花数据集利用Perceptron感知机和AdalineGD算法实现二分类实现
基于iris莺尾花数据集利用Perceptron感知机算法实现二分类
设计思路
输出结果
<bound method DataFrame.info of SepalLength_cm SepalWidth_cm ... PetalWidth_cm label
0 5.1 3.5 ... 0.2 Iris-setosa
1 4.9 3.0 ... 0.2 Iris-setosa
2 4.7 3.2 ... 0.2 Iris-setosa
3 4.6 3.1 ... 0.2 Iris-setosa
4 5.0 3.6 ... 0.2 Iris-setosa
.. ... ... ... ... ...
145 6.7 3.0 ... 2.3 Iris-virginica
146 6.3 2.5 ... 1.9 Iris-virginica
147 6.5 3.0 ... 2.0 Iris-virginica
148 6.2 3.4 ... 2.3 Iris-virginica
149 5.9 3.0 ... 1.8 Iris-virginica[150 rows x 5 columns]>SepalLength_cm SepalWidth_cm ... PetalWidth_cm label
0 5.0 3.5 ... 0.3 Iris-setosa
1 6.3 2.5 ... 1.9 Iris-virginica
2 4.4 3.0 ... 0.2 Iris-setosa
3 5.7 2.8 ... 1.3 Iris-versicolor
4 6.8 3.2 ... 2.3 Iris-virginica[5 rows x 5 columns]
Iris-setosa 50
Iris-versicolor 50
Iris-virginica 50
Name: label, dtype: int64
(150, 2)
[5, 0, 0, 0, 0, 0, 0, 0, 0, 0]
CE_res (37, 0, 0, 0)
recall precision accurency
1.0 1.0 1.0
核心代码
class Perceptron(object):def __init__(self, rate = 0.01, niter = 10):self.rate = rateself.niter = niterdef fit(self, X, y):self.weight = np.zeros(1 + X.shape[1])self.errors = [] # Number of misclassificationsfor i in range(self.niter):err = 0for xi, target in zip(X, y):delta_w= self.rate * (target-self.predict(xi))self.weight[1:] += delta_w * xiself.weight[0] += delta_werr += int(delta_w != 0.0)self.errors.append(err)return selfdef net_input(self, X):return np.dot(X, self.weight[1:]) + self.weight[0]def predict(self, X):return np.where(self.net_input(X) >= 0.0, 1, -1)
DL之PerceptronAdalineGD:基于iris莺尾花数据集利用Perceptron感知机和AdalineGD算法实现二分类相关推荐
- ML之kNNC:基于iris莺尾花数据集(PCA处理+三维散点图可视化)利用kNN算法实现分类预测daiding
ML之kNNC:基于iris莺尾花数据集(PCA处理+三维散点图可视化)利用kNN算法实现分类预测 目录 基于iris莺尾花数据集(PCA处理+三维散点图可视化)利用kNN算法实现分类预测 设计思路 ...
- ML之kNNC:基于iris莺尾花数据集(PCA处理+三维散点图可视化)利用kNN算法实现分类预测
ML之kNNC:基于iris莺尾花数据集(PCA处理+三维散点图可视化)利用kNN算法实现分类预测 目录 基于iris莺尾花数据集(PCA处理+三维散点图可视化)利用kNN算法实现分类预测 设计思路 ...
- ML之KG:基于MovieLens电影评分数据集利用基于知识图谱的推荐算法(networkx+基于路径相似度的方法)实现对用户进行Top电影推荐案例
ML之KG:基于MovieLens电影评分数据集利用基于知识图谱的推荐算法(networkx+基于路径相似度的方法)实现对用户进行Top电影推荐案例 目录 基于MovieLens电影评分数据集利用基于 ...
- 莺尾花数据集--kNN分类
Step1: 库函数导入 import numpy as np # 加载莺尾花数据集 from sklearn import datasets # 导入KNN分类器 from sklearn.neig ...
- k-近邻(应用sklearn的莺尾花数据集)
kNN 的作用机制为 在目标周围选取最近k个点,这k个点哪种占比最大,就可以把这个目标分类到那个分类,即有分到相似属性多的类别. 该算法和回归,决策树不同之处是,回归和决策树是通过训练集确定参数,参 ...
- KNN实战莺尾花数据集
0 前言 俗话说,实践才能出真理,能动手就不要逼逼,下面将利用莺尾花数据集实战KNN算法. 1 实战概述 首先,要介绍一下这个实战的整体思路:要做什么.怎么做!第一步,我们应该拿到数据集,了解数据集信 ...
- SVM训练莺尾花数据集
SVM训练莺尾花数据集 代码在莺尾花数据集上训练SVM,数据集由莺尾花的测量值及其相应的物种标签组成.该模型使用70%数据用于训练,然后剩余部分进行测试.其中′fit′'fit'′fit′方法在训练集 ...
- 莺尾花数据集–贝叶斯分类(day5)
莺尾花数据集–贝叶斯分类 Step1: 库函数导入 import warnings warnings.filterwarnings('ignore') #忽略了警告错误的输出 import numpy ...
- ML:基于自定义数据集利用Logistic、梯度下降算法GD、LoR逻辑回归、Perceptron感知器、SVM支持向量机、LDA线性判别分析算法进行二分类预测(决策边界可视化)
ML:基于自定义数据集利用Logistic.梯度下降算法GD.LoR逻辑回归.Perceptron感知器.支持向量机(SVM_Linear.SVM_Rbf).LDA线性判别分析算法进行二分类预测(决策 ...
最新文章
- 彻底搞懂JS无缝滚动代码
- firefox扩展开发(二):用XUL创建窗口控件
- elasticSearch 安装和 head插件使用
- 在Ubuntu 18.04系统中使用Netplan工具配置网络
- JZOJ 3517. 空间航行
- Eclipse小技巧:收起outline的头文件
- webpack的分享
- Direct3D提高篇:HLSL编程实现PhotoShop滤镜效果 - 锐化模糊
- 面向消息的持久通信与面向流的通信
- 台达服务器AB和B2系列区别,台达A2与B2伺服的区别
- I2S/PCM协议及TDM模式详解
- 大学生个人网页模板 简单网页制作作业成品 极简风格个人介绍HTML网页设计(舞蹈培训网页)
- Sticky Footer , fixed footer, pinned footer
- linux从零基础开始
- 我在用的翻译软件,微软翻译,网易有道词典
- RHCSA——第四天
- python实现拍拍贷 rsa 加密 及 python普通rsa加密方式
- Module build failed: Error: ENOENT: no such file or directory, scandir node_modules\node-sass\vendor
- Marathon+Mesos+Docker实战
- 万兆NAS存储网络组建方案