Python机器学习库scikit-learn安装与基本使用教程
本文实例讲述了Python机器学习库scikit-learn安装与基本使用。分享给大家供大家参考,具体如下:
引言
scikit-learn是Python的一个开源机器学习模块,它建立在NumPy,SciPy和matplotlib模块之上能够为用户提供各种机器学习算法接口,可以让用户简单、高效地进行数据挖掘和数据分析。
scikit-learn安装
python中安装许多模板库之前都有依赖关系,安装scikit-learn之前需要以下先决条件:
Python(>=2.6or>=3.3)
NumPy(>=1.6.1)
SciPy(>=0.9)
如无意外,下面用pip的安装方法可以顺利完成~~
安装numpy
sudopipinstallnumpy
安装scipy
需要先安装matplotlibipythonipython-notebookpandassympy
sudoapt-getinstallpython-matplotlibipythonipython-notebook sudoapt-getinstallpython-pandaspython-sympypython-nose sudopipinstallscipy
安装scikit-learn
sudopipinstall-Uscikit-learn
测试
在terminal里面输入
piplist
这个会列出pip安装的所有东西,如果里面有sklearn这一项,应该就是大功告成了!
或者尝试着将几个模板库导入进来
importnumpy importscipy importsklearn
加载数据(DataLoading)
本文所使用的数据集为‘今日头条'近期两篇热门新闻“牛!川大学霸寝室5人获16份名校通知书”、“张超凡的最后14天:山西15岁休学少年是如何殒命网吧的”分别500条评论,共1000条评论。
去除停用词后得到了词库大小为3992的词库。因此构建了1000×3992的特征矩阵,以及长度为1000的对应评论所属类别列表
具体爬虫和特征矩阵构建代码
class_result_save.npy下载feature_matrix_save.npy下载
importnumpyasnp feature_matrix=np.load('dataSet/feature_matrix_save.npy') class_list=np.load('dataSet/class_result_save.npy')
数据归一化(DataNormalization)
大多数机器学习算法中的梯度方法对于数据的缩放和尺度都是很敏感的,在开始跑算法之前,我们应该进行归一化或者标准化的过程,这使得特征数据缩放到0-1范围中。scikit-learn提供了归一化的方法:
fromsklearnimportpreprocessing #归一化(Normalization) normalized_X=preprocessing.normalize(feature_matrix) printnormalized_X #标准化(Standardization) standardized_X=preprocessing.scale(feature_matrix) printstandardized_X
特征选择(FeatureSelection)
在解决一个实际问题的过程中,选择合适的特征或者构建特征的能力特别重要。这成为特征选择或者特征工程。
特征选择时一个很需要创造力的过程,更多的依赖于直觉和专业知识,并且有很多现成的算法来进行特征的选择。
下面的树算法(Treealgorithms)计算特征的信息量:
fromsklearn.ensembleimportExtraTreesClassifier model=ExtraTreesClassifier() printfeature_matrix.shape#原特征矩阵规模 feature_matrix=model.fit(feature_matrix,class_list).transform(feature_matrix) printfeature_matrix.shape#特征选择后特征矩阵的规模
特征提取(FeatureExtraction)
用TFIDF算法来计算特征词的权重值是表示当一个词在这篇文档中出现的频率越高,同时在其他文档中出现的次数越少,则表明该词对于表示这篇文档的区分能力越强,所以其权重值就应该越大。
fromsklearn.feature_extraction.textimportTfidfTransformer tfidf_transformer=TfidfTransformer() feature_matrix=tfidf_transformer.fit_transform(feature_matrix).toarray()
朴素贝叶斯(NaiveBayes)
朴素贝叶斯是一个很著名的机器学习算法,主要是根据训练样本的特征来计算各个类别的概率,在多分类问题上用的比较多。
fromsklearnimportmetrics fromsklearn.naive_bayesimportGaussianNB #构建朴素贝叶斯模型 model=GaussianNB() model.fit(feature_matrix,class_list) printmodel #使用测试集进行测试(此处将训练集做测试集) expected=class_list predicted=model.predict(feature_matrix) #输出测试效果 printmetrics.classification_report(expected,predicted) printmetrics.confusion_matrix(expected,predicted)
k近邻(k-NearestNeighbours)
k近邻算法常常被用作是分类算法一部分,比如可以用它来评估特征,在特征选择上我们可以用到它。
fromsklearnimportmetrics fromsklearn.neighborsimportKNeighborsClassifier #构建knn模型 model=KNeighborsClassifier() model.fit(feature_matrix,class_list) printmodel #使用测试集进行测试(此处将训练集做测试集) expected=class_list predicted=model.predict(feature_matrix) #输出测试效果 printmetrics.classification_report(expected,predicted) printmetrics.confusion_matrix(expected,predicted)
决策树(DecisionTree)
分类与回归树(ClassificationandRegressionTrees,CART)算法常用于特征含有类别信息的分类或者回归问题,这种方法非常适用于多分类情况。
fromsklearnimportmetrics fromsklearn.treeimportDecisionTreeClassifier #构建决策数模型 model=DecisionTreeClassifier() model.fit(feature_matrix,class_list) printmodel #使用测试集进行测试(此处将训练集做测试集) expected=class_list predicted=model.predict(feature_matrix) #输出测试效果 printmetrics.classification_report(expected,predicted) printmetrics.confusion_matrix(expected,predicted)
更多关于Python相关内容感兴趣的读者可查看本站专题:《Python数学运算技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。