import numpy as np
from matplotlib import colors
from sklearn import svm
from sklearn.svm import SVC
from sklearn import model_selection
import matplotlib.pyplot as plt
import matplotlib as mpl
#对数据进行处理
data_path='D:\python learning material\iris.data'
selection=[0,2]
def iris_type(s):it = {b'Iris-setosa':0, b'Iris-versicolor':1, b'Iris-virginica':2}return it[s]def datadivision(data_path,selection):#数据与结果分开,分隔符为“,”,第5列进行转化data = np.loadtxt(data_path,dtype=float,delimiter=',',converters={4:iris_type})                                #data为二维数组,data.shape=(150, 5)x, y = np.split(data,(4,),axis=1)   #要切分的数组 #沿轴切分的位置,位置为4,5列中间 #axis参数代表纵向分割,按列分割x = x[:, selection] #取特征值    #print(x)#print(x.shape)x_train,x_test,y_train,y_test=model_selection.train_test_split(x,y,random_state=1,test_size=0.3)              #所要划分的样本特征集#所要划分的样本结果#随机数种子#测试样本占比return x,x_train,x_test,y_train,y_test,y
#模型建立
def classifier():clf = svm.SVC(C=0.5,                         #误差项惩罚系数,默认值是1kernel='linear',               #线性核 kenrel="rbf":高斯核decision_function_shape='ovr') #决策函数return clfdef train(clf,x_train,y_train):clf.fit(x_train,         #训练集特征向量y_train.ravel()) #训练集目标值 ravel函数是将(150*1)数组变为一个(1*150)降维,也可用flatten()代替
#模型评估
def show_accuracy(a, b, tip):acc = a.ravel() == b.ravel()print('%s Accuracy:%.3f' %(tip, np.mean(acc)))
def print_accuracy(clf,x_train,y_train,x_test,y_test):#分别打印训练集和测试集的准确率  score(x_train,y_train):表示输出x_train,y_train在模型上的准确率print('trianing prediction:%.3f' %(clf.score(x_train, y_train)))print('test data prediction:%.3f' %(clf.score(x_test, y_test)))#原始结果与预测结果进行对比   predict()表示对x_train样本进行预测,返回样本类别show_accuracy(clf.predict(x_train), y_train, 'traing data')show_accuracy(clf.predict(x_test), y_test, 'testing data')#计算决策函数的值,表示x到各分割平面的距离???#print('decision_function:\n', clf.decision_function(x_train))```python
def draw(clf, x,selection):iris_feature = 'sepal length', 'sepal width', 'petal lenght', 'petal width'# 开始画图x1_min, x1_max = x[:, 0].min(), x[:, 0].max()               #第0列的范围x2_min, x2_max = x[:, 1].min(), x[:, 1].max()               #第1列的范围x1, x2 = np.mgrid[x1_min:x1_max:200j, x2_min:x2_max:200j]   #生成网格采样点(200*200)的点#print(x1)#print(x1.shape) x1x2是200*200的矩阵grid_test = np.stack((x1.flat, x2.flat), axis=1)            #stack():沿着新的轴加入一系列数组  #flat函数就是一个一维的迭代器#print('grid_test:\n', grid_test)# 输出样本到决策面的距离z = clf.decision_function(grid_test)#print('the distance to decision plane:\n', z)grid_hat = clf.predict(grid_test)                           # 预测分类值 得到【0,0.。。。2,2,2】print('grid_hat:\n', grid_hat)  grid_hat = grid_hat.reshape(x1.shape)                       # reshape grid_hat和x1形状一致#若3*3矩阵e,则e.shape()为3*3,表示3行3列   cm_light = mpl.colors.ListedColormap(['#A0FFA0', '#FFA0A0', '#A0A0FF'])cm_dark = mpl.colors.ListedColormap(['g', 'b', 'r'])plt.pcolormesh(x1, x2, grid_hat, cmap=cm_light)                                   # pcolormesh(x,y,z,cmap)这里参数代入# x1,x2,grid_hat,cmap=cm_light绘制的是背景。plt.scatter(x[:, 0], x[:, 1], c=np.squeeze(y), edgecolor='k', s=50, cmap=cm_dark) # 样本点#plt.scatter(x_test[:, 0], x_test[:, 1], s=120, facecolor='none', zorder=10)       # 测试点plt.xlabel(iris_feature[selection[0]], fontsize=20)plt.ylabel(iris_feature[selection[1]], fontsize=20)plt.xlim(x1_min, x1_max)plt.ylim(x2_min, x2_max)plt.title('svm in iris data classification', fontsize=30)plt.grid()plt.show()
#draw(clf, x)
#执行
data_path='D:\python learning material\iris.data'
selection=[0,1]
clf=classifier()
x=datadivision(data_path,selection)[0]
x_train=datadivision(data_path,selection)[1]
x_test=datadivision(data_path,selection)[2]
y_train=datadivision(data_path,selection)[3]
y_test=datadivision(data_path,selection)[4]
y=datadivision(data_path,selection)[5]
train(clf,x_train,y_train)
print_accuracy(clf,x_train,y_train,x_test,y_test)
draw(clf, x,selection)

鸢尾花分类(主成分分析)相关推荐

  1. 2.2案例:鸢尾花分类——逻辑回归

    文章目录 一.引言 鸢尾花数据集 二.鸢尾花分类 一.引言 鸢尾花数据集为机器学习常用的数据集,今天,我们基于该数据集进行算法学习 鸢尾花数据集 鸢尾花数据集有3个类别,每个类别有50个样本,其中一个 ...

  2. 经典案例鸢尾花分类, 在Keras中使用sklearn调参

    数据集介绍 有5维数据:花萼长度,花萼宽度,花瓣长度,花瓣宽度,花的种类 花的种类 'setosa', 'versicolor', 'virginica' 算例 第一步.包导入 import nump ...

  3. 2、python机器学习基础教程——K近邻算法鸢尾花分类

    一.第一个K近邻算法应用:鸢尾花分类 import numpy as np from sklearn.datasets import load_iris from sklearn.model_sele ...

  4. adaboost算法java代码_04-04 AdaBoost算法代码(鸢尾花分类)

    [TOC] 更新.更全的<机器学习>的更新网站,更有python.go.数据结构与算法.爬虫.人工智能教学等着你:https://www.cnblogs.com/nickchen121/p ...

  5. python决策树分类鸢尾花_基于决策树—鸢尾花分类

    决策树算法广泛应用于:语音识别.医疗诊断.客户关系管理.模式识别.专家系统等,在实际工作中,必须根据数据类型的特点及数据集的大小,选择合适的算法. 本文选择经典案例--<鸢尾花分类> 一. ...

  6. 使用Keras实现鸢尾花分类

    文章目录 一.任务描述 二.完成任务 - 使用Keras API顺序模式实现鸢尾花分类 (一)数据的准备 (二)数据的处理 (三)创建模型,添加连接层 (四)创建优化器,模型迭代学习 (五)查看完整源 ...

  7. 【BP神经网络】西瓜分类和鸢尾花分类

    文章目录 一.数据集和资料 二.鸢尾花分类 三.西瓜分类 四.一些笔记 Sklearn部分资料 pandas部分函数 一.数据集和资料 数据集,提取码:zmlc 大佬笔记,提取码:ytfa 二.鸢尾花 ...

  8. HBU-NNDL 实验五 前馈神经网络(3)鸢尾花分类

    目录 深入研究鸢尾花数据集 4.5 实践:基于前馈神经网络完成鸢尾花分类 4.5.1 小批量梯度下降法 4.5.1.1 数据分组 4.5.2 数据处理 4.5.2.2 用DataLoader进行封装 ...

  9. [python] 深度学习基础------人工神经网络实现鸢尾花分类(一)

    ​​​​​​​人工神经网络实现鸢尾花分类(一) 人工神经网络实现鸢尾花分类(二) 人工神经网络实现鸢尾花分类(三) 人工神经网络实现鸢尾花分类(四) 人工神经网络实现鸢尾花分类(五) 目录 人工智能主 ...

最新文章

  1. 通道注意力机制 cnn keras_【CV中的Attention机制】简单而有效的CBAM模块
  2. 算法复习——凸包加旋转卡壳(poj2187)
  3. error:“ACCESS_MASK”: 不明确的符号
  4. leetcode算法题--单词拆分★
  5. 【数学】【CF27E】 Number With The Given Amount Of Divisors
  6. LeetCode--41.缺失的第一个正数(C)
  7. Laravel后台 + AngularJS前端 的网站构建与维护
  8. ehcache讲解及实例
  9. Java中的集合HashSet、LinkedHashSet、TreeSet和EnumSet(二)
  10. Springboot @Validated和@Valid
  11. 代码回滚:Reset、Checkout、Revert的选择(转)
  12. EDA课程设计,可编程逻辑设计课程设计
  13. 深度置信网络python3实现
  14. 【Web开发】Python实现Web图表功能(D-Tale入门)
  15. 从共享征信黑名单到建立白名单体系:LinkEye想打造基于区块链的征信联盟
  16. JAVA多线程:龟兔赛跑
  17. Cisco *** Client 报错问题
  18. 2022浙江最新八大员之(安全员)模拟考试试题及答案
  19. vue清空子组件数据或强制刷新子组件
  20. 【附源码】计算机毕业设计SSM期刊在线投稿系统

热门文章

  1. 【Kibana】索引生命周期策略错误illegal_argument_exception: index.lifecycle.rollover_alias does not point to index
  2. ANSYS CFX19.0中的SA模型设置
  3. HDU 6447 YJJ's Salesman(线段树+DP)
  4. 海康威视:笔试题(20190908)
  5. python win32com批量导出.ppt/.pptx文件所有图片
  6. 去除高清视频锯齿几个方法
  7. 苹果状态栏HTML,webview内嵌的html页面,在ios系统上12以上版本和12以下版本状态栏效果不一样...
  8. 山石防火墙命令查看配置_hillstone 防火墙基本配置
  9. android拷机获取内存使用的脚本
  10. 搜索引擎Google的小秘密