python KNN算法实现鸢尾花数据集分类
一、knn算法描述
1.基本概述
knn算法,又叫k-近邻算法。属于一个分类算法,主要思想如下:
一个样本在特征空间中的k个最近邻的样本中的大多数都属于某一个类别,则该样本也属于这个类别。其中k表示最近邻居的个数。
用二维的图例,说明knn算法,如下:
二维空间下数据之间的距离计算:
在n维空间两个数据之间:
2.具体步骤:
(1)计算待测试数据与各训练数据的距离
(2)将计算的距离进行由小到大排序
(3)找出距离最小的k个值
(4)计算找出的值中每个类别的频次
(5)返回频次最高的类别
二、鸢尾花数据集
Iris鸢尾花数据集内包含3类分别为山鸢尾(Iris-setosa)、变色鸢尾(Iris-versicolor)和维吉尼亚鸢尾(Iris-virginica),共150条记录,每类各50个数据,每条记录都有4项特征:花萼长度、花萼宽度、花瓣长度、花瓣宽度,可以通过这4个特征预测鸢尾花卉属于哪一品种。
iris数据集包含在sklearn库当中,具体在sklearn\datasets\data文件夹下,文件名为iris.csv。以本机为例。其路径如下:
D:\python\lib\site-packages\sklearn\datasets\data\iris.csv
其中数据如下格式:
第一行数据意义如下:
150:数据集中数据的总条数
4:特征值的类别数,即花萼长度、花萼宽度、花瓣长度、花瓣宽度。
setosa、versicolor、virginica:三种鸢尾花名
从第二行开始:
第一列为花萼长度值
第二列为花萼宽度值
第三列为花瓣长度值
第四列为花瓣宽度值
第五列对应是种类(三类鸢尾花分别用0,1,2表示)
三、算法实现
1.算法流程图:
从以上流程图可以看出,knn算法包含后四步操作,所以将整个程序分为三个模块。
2.具体实现
(1)方法一
①利用slearn库中的load_iris()导入iris数据集
②使用train_test_split()对数据集进行划分
③KNeighborsClassifier()设置邻居数
④利用fit()构建基于训练集的模型
⑤使用predict()进行预测
⑥使用score()进行模型评估
说明:本代码来源于《Python机器学习基础教程》在此仅供学习使用。
fromsklearn.datasetsimportload_iris fromsklearn.model_selectionimporttrain_test_split fromsklearn.neighborsimportKNeighborsClassifier importnumpyasnp #载入数据集 iris_dataset=load_iris() #数据划分 X_train,X_test,y_train,y_test=train_test_split(iris_dataset['data'],iris_dataset['target'],random_state=0) #设置邻居数 knn=KNeighborsClassifier(n_neighbors=1) #构建基于训练集的模型 knn.fit(X_train,y_train) #一条测试数据 X_new=np.array([[5,2.9,1,0.2]]) #对X_new预测结果 prediction=knn.predict(X_new) print("预测值%d"%prediction) #得出测试集X_test测试集的分数 print("score:{:.2f}".format(knn.score(X_test,y_test)))
(2)方法二
①使用读取文件的方式,使用open、以及csv中的相关方法载入数据
②输入测试集和训练集的比率,对载入的数据使用shuffle()打乱后,计算训练集及测试集个数对特征值数据和对应的标签数据进行分割。
③将分割后的数据,计算测试集数据与每一个训练集的距离,使用norm()函数直接求二范数,或者载入数据使用np.sqrt(sum((test-train)**2))求得距离,使用argsort()将距离进行排序,并返回索引值,
④取出值最小的k个,获得其标签值,存进一个字典,标签值为键,出现次数为值,对字典进行按值的大小递减排序,将字典第一个键的值存入预测结果的列表中,计算完所有测试集数据后,返回一个列表。
⑤将预测结果与测试集本身的标签进行对比,得出分数。
importcsv importrandom importnumpyasnp importoperator defopenfile(filename): """ 打开数据集,进行数据处理 :paramfilename:数据集的路径 :return:返回数据集的数据,标签,以及标签名 """ withopen(filename)ascsv_file: data_file=csv.reader(csv_file) temp=next(data_file) #数据集中数据的总数量 n_samples=int(temp[0]) #数据集中特征值的种类个数 n_features=int(temp[1]) #标签名 target_names=np.array(temp[2:]) #empty()函数构造一个未初始化的矩阵,行数为数据集数量,列数为特征值的种类个数 data=np.empty((n_samples,n_features)) #empty()函数构造一个未初始化的矩阵,行数为数据集数量,1列,数据格式为int target=np.empty((n_samples,),dtype=np.int) fori,jinenumerate(data_file): #将数据集中的将数据转化为矩阵,数据格式为float #将数据中从第一列到倒数第二列中的数据保存在data中 data[i]=np.asarray(j[:-1],dtype=np.float64) #将数据集中的将数据转化为矩阵,数据格式为int #将数据集中倒数第一列中的数据保存在target中 target[i]=np.asarray(j[-1],dtype=np.int) #返回数据,标签和标签名 returndata,target,target_names defrandom_number(data_size): """ 该函数使用shuffle()打乱一个包含从0到数据集大小的整数列表。因此每次运行程序划分不同,导致结果不同 改进: 可使用random设置随机种子,随机一个包含从0到数据集大小的整数列表,保证每次的划分结果相同。 :paramdata_size:数据集大小 :return:返回一个列表 """ number_set=[] foriinrange(data_size): number_set.append(i) random.shuffle(number_set) returnnumber_set defsplit_data_set(data_set,target_data,rate=0.25): """ 说明:分割数据集,默认数据集的25%是测试集 :paramdata_set:数据集 :paramtarget_data:标签数据 :paramrate:测试集所占的比率 :return:返回训练集数据、训练集标签、训练集数据、训练集标签 """ #计算训练集的数据个数 train_size=int((1-rate)*len(data_set)) #获得数据 data_index=random_number(len(data_set)) #分割数据集(X表示数据,y表示标签),以返回的index为下标 x_train=data_set[data_index[:train_size]] x_test=data_set[data_index[train_size:]] y_train=target_data[data_index[:train_size]] y_test=target_data[data_index[train_size:]] returnx_train,x_test,y_train,y_test defdata_diatance(x_test,x_train): """ :paramx_test:测试集 :paramx_train:训练集 :return:返回计算的距离 """ #sqrt_x=np.linalg.norm(test-train)#使用norm求二范数(距离) distances=np.sqrt(sum((x_test-x_train)**2)) returndistances defknn(x_test,x_train,y_train,k): """ :paramx_test:测试集数据 :paramx_train:训练集数据 :paramy_train:测试集标签 :paramk:邻居数 :return:返回一个列表包含预测结果 """ #预测结果列表,用于存储测试集预测出来的结果 predict_result_set=[] #训练集的长度 train_set_size=len(x_train) #创建一个全零的矩阵,长度为训练集的长度 distances=np.array(np.zeros(train_set_size)) #计算每一个测试集与每一个训练集的距离 foriinx_test: forindxinrange(train_set_size): #计算数据之间的距离 distances[indx]=data_diatance(i,x_train[indx]) #排序后的距离的下标 sorted_dist=np.argsort(distances) class_count={} #取出k个最短距离 foriinrange(k): #获得下标所对应的标签值 sort_label=y_train[sorted_dist[i]] #将标签存入字典之中并存入个数 class_count[sort_label]=class_count.get(sort_label,0)+1 #对标签进行排序 sorted_class_count=sorted(class_count.items(),key=operator.itemgetter(1),reverse=True) #将出现频次最高的放入预测结果列表 predict_result_set.append(sorted_class_count[0][0]) #返回预测结果列表 returnpredict_result_set defscore(predict_result_set,y_test): """ :parampredict_result_set:预测结果列表 :paramy_test:测试集标签 :return:返回测试集精度 """ count=0 foriinrange(0,len(predict_result_set)): ifpredict_result_set[i]==y_test[i]: count+=1 score=count/len(predict_result_set) returnscore if__name__=="__main__": iris_dataset=openfile('iris.csv') #x_new=np.array([[5,2.9,1,0.2]]) x_train,x_test,y_train,y_test=split_data_set(iris_dataset[0],iris_dataset[1]) result=knn(x_test,x_train,y_train,6) print("原有标签:",y_test) #为了方便对比查看,此处将预测结果转化为array,可直接打印结果 print("预测结果:",np.array(result)) score=score(result,y_test) print("测试集的精度:%.2f"%score)
四、运行结果
结果不同,因为每次划分的训练集和测试集不同,具体见random_number()方法。
五、总结
在本次使用python实现knn算法时,遇到了很多困难,如数据集的加载,数据的格式不能满足后续需要,因此阅读了sklearn库中的一部分代码,有选择性的进行了复用。数据与标签无法分离,或是数据与标签排序后后无法对应的情况,查询许多资料后使用argsort()完美解决该问题。出现了n多错误,通过多次调试之后最终完成。
附:本次实验参考:
①*郑捷《机器学习算法原理与编程实践》
②《Python机器学习基础教程》
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。