ImageVerifierCode 换一换
格式:DOCX , 页数:14 ,大小:201.11KB ,
资源ID:3641551      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bingdoc.com/d-3641551.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(数据挖掘实训报告Word下载.docx)为本站会员(b****1)主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(发送邮件至service@bingdoc.com或直接QQ联系客服),我们立即给予删除!

数据挖掘实训报告Word下载.docx

1、iris = ()digits = ()print iris:,ndigits:,打印的数据集存在中,ndarray会自动省略较长矩阵的中间部分。Iris数据集的样本数据为其花瓣的各项属性Digits数据集的样本数据为手写数字图像的像素值2.划分数据集引入sklearn的model_selection使用train_test_split划分digits数据集,训练集和测试集比例为8:2from import train_test_splitx_train,x_test,y_train,y_test=train_test_split,test_size=x_train:,x_train,nx_t

2、est:,x_test,ny_train:,y_train,ny_test:,y_test3.使用KNN和SVM对digits测试集分类引用sklearn的和模块调用算法,使用classification_report查看预测结果的准确率和召回率from import classification_reportfrom sklearn import neighborsclf = ()(x_train,y_train)y_pred=(x_test)print classification_report(y_test, y_pred)from import SVCclf = SVC()KNN的预测

3、结果:所有数字的预测正确率几乎达到了100%SVM的预测结果:对部分数字的预测误差较大,基本情况不如KNN考虑SVM分类器的特性,在分类前对特征值进行标准化后再分类:from sklearn import preprocessingmin_max_scaler = ()x_train = (x_train)x_test = (x_test)标准化数据后SVM的预测结果达到了KNN的准度:4.使用贝叶斯和决策树对iris数据集分类from sklearn import naive_bayesfrom sklearn import tree决策树和贝叶斯都有较好的分类效果五、实验结果分析为什么用s

4、vm和knn处理digits数据集,用tree和bayes处理iris数据集,这是一个经验问题。我们都知道digits数据集的每一个特征就是像素点的像素值,他们的维度都是在0255以内;像素点之间的维度完全一致,互相没有优先级。这种情况下使用线性分类器如KNN、SVM、Logistic会有更好的效果。而iris数据集虽然长度和宽度维度差不多相同,但是两者之间有优先级的区分,按照人脑分类的思维方式可能是先按照长度判断再按照宽度等思维方式,很接近决策树的算法原理,贝叶斯同样。所以概率性分类器有更好的效果。实际情况也是使用SVM预测iris的结果和Bayes预测digits的结果不甚理想(虽然也有很

5、高的准度了)。当然,通过调整分类器的参数,能使各个分类器的预测结果都达到满意结果,综合表现还是KNN更抢眼,能在各种数据集面前都有出色表现,但KNN在训练样本数量达到一定程度后,有超高的计算复杂度。所以面对实际情况,选用什么分类器,如何调节参数都是值得深思的问题。项目2:基于sklearn的数据聚类挖掘一、实验任务熟悉sklearn数据挖掘平台的基本功能。用K-Means进行数据聚类分析。二、实验环境及条件随机产生的100个坐标点,范围为0,100四、实验内容及过程1.随机产生坐标值产生的随机值在0-100,因为sklearn的k-means模块要求输入的坐标形式为x0,y0,x,y,xn,y

6、n,而实际产生的是x0,xn和y0,yn,所以还需要对坐标进行一次转换from import KMeansimport numpy as npimport as pltimport randomdef create_coordinate(): x,y=, for i in range(100): (0,100) return x,yx,y=create_coordinate()old_coordinate=xi,yi for i in range(100)coordinate=(old_coordinate)print old_coordinate产生的随机坐标值:2.创建做图函数使用k-me

7、ans对坐标点分为3类,对0类标为红色,1类标为绿色,2类标为蓝色。并将三类坐标的中心点以*表示在图中def create_chart(x,y,label,center): x_0=xi for i in range(len(x) if labeli=0 x_1=xi for i in range(len(x) if labeli=1 x_2=xi for i in range(len(x) if labeli=2 y_0=yi for i in range(len(y) if labeli=0 y_1=yi for i in range(len(y) if labeli=1 y_2=yi f

8、or i in range(len(y) if labeli=2 (x_0,y_0,c=r) (x_1,y_1,c=g (x_2,y_2,c=b (i0 for i in center,i1 for i in center,c=m,s=600,marker=* ()3.使用k-means聚类并预测新增点的类别kmeans = KMeans(n_clusters=3, random_state=0).fit(coordinate)print (0, 0, 50,50,100, 100)create_chart(x,y,对新点的预测:2 2 1点的聚类情况:这次试验,使用sklearn的k-mea

9、ns对100个坐标点聚类。K-means因为其本身算法的原因,点数越多聚类速度越慢。所以在20个点和100个点的聚类时间上有很大差距。聚类问题不同于分类问题,没有明确的预测和分类结果,聚类时对数据的边界可能会各不相同,聚类问题在用户画像/个性化推荐等应用上有较好地发挥。实验3:在Python程序中引用sklearn用Python开发一个综合部分挖掘算法的演示程序,核心算法来自sklearn类库。演示程序界面友好。使用PyQt4创建windows窗体,并提供可选择的分类方式: SVM支持向量机算法 KNNK邻近算法 Bayes朴素贝叶斯算法 Tree决策树算法 LogisticLogistic回

10、归算法可选择的归一化方式: Standard-标准归一化 MaxAndMin-最大最小归一化可选择的验证比例 可选范围(0,1)可调节的分类器参数 根据具体分类器设置参数部分代码 确认按钮响应事件 def OKPushButton_OnClick(self): data_name = classify_name = normalization_name = parameter_string = validation_string = y_test,y_pred=(data_name,classify_name,normalization_name,parameter_string,valida

11、tion_string) from import classification_report y_pred) 分类算法执行 def load_datasets_and_classify(self,data_name,classify_name,normalization_name,parameter_string,validation_string): from sklearn import datasets from import train_test_split rate= if validation_string !=: try: rate=float(validation_string

12、) except: (u输入的数值必须是01的浮点数 return if data_name = iris origin_data=() elif data_name = digits else: (u未知数据集 return data= target= if normalization_name=standard from sklearn import preprocessing scaler = ().fit(x_train) (x_train) (x_test) elif normalization_name=max_min min_max_scaler = () x_train = (x_train) x_test = (x_test)none pass未知归一化方式 程序演示结果使用PyQt4创建windows窗体,然后结合实验1和2的部分代码生成代码演示程序。说句实话,不太清楚这个试验到底要干嘛,为了给演示程序的界面添加控件就花了很多时间,算是学习到如何使用python创建windows应用程序了。

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2