收藏 分销(赏)

机器学习试卷——中南大学.doc

上传人:精*** 文档编号:4019845 上传时间:2024-07-25 格式:DOC 页数:2 大小:19.54KB 下载积分:5 金币
下载 相关 举报
机器学习试卷——中南大学.doc_第1页
第1页 / 共2页
机器学习试卷——中南大学.doc_第2页
第2页 / 共2页
本文档共2页,全文阅读请下载到手机保存,查看更方便
资源描述
一、判断题 (1)极大似然估计是无偏估计且在所有的无偏估计中方差最小,所以极大似然估计的风险最小. (2)回归函数A和B,如果A比B更简单,则A几乎一定会比B在测试集上表现更好。 (3)全局线性回归需要利用全部样本点来预测新输入的对应输出值,而局部线性回归只需利用查询点附近的样本来预测输出值。所以全局线性回归比局部线性回归计算代价更高. (4)Boosting的一个优点是不会过拟合。 (5)在回归分析中,最佳子集选择可以做特征选择,当特征数目较多时计算量大;岭回归和Lasso模型计算量小,且Lasso也可以实现特征选择. (6)梯度下降有时会陷于局部极小值,但EM算法不会。 (7)支持向量机是判别模型。T (8)ICA方法对于高斯分布的数据也有效.F (9)回归问题属于非监督学习的一种方法。F (10)聚类算法中不需要给出标签y.T 二、考虑一个二分类器问题(Y为1或0),每个训练样本X有两个特征X1、X2(0或1)。给出P(Y=0)=P(Y=1)=0。5,条件概率如下表: 分类器预测的结果错误的概率为期望错误率,Y是样本类别的实际值,Y'(X1,X2)为样本类别的预测值,那么期望错误率为: (1) 给出X1,X2的所有可能值,使用贝叶斯分类器预测结果,填写下表: X1 X2 P(X1,X2,Y=0) P(X1,X2,Y=1) Y’(X1,X2) 0 0 0 1 1 0 1 1 (2) 计算给定特征(X1,X2)预测Y的期望错误率,假设贝叶斯分类器从无限的训练样本中学习所得。 (3) 下面哪个有更小的期望错误率? a、仅仅给出X1,采用贝叶斯分类器预测Y。 b、仅仅给出X2,采用贝叶斯分类器预测Y。 (4) 给出一个新的特征X3,X3的与X2保持完全相同,现在计算给定(X1,X2,X3)采用贝叶斯分类器预测Y的期望错误率,假设分类器从无限的训练数据中学习所得。 (5)使用贝叶斯分类器会产生什么问题,为什么? 三、交叉验证 1、4。 给定如下数据集,其中为输入变量,为输出变量.假设考虑采用k—NN算法 对对应的进行预测,其中距离度量采用不加权的欧氏距离。(12分) (1)算法1-NN的训练误差的是多少?(用分类错误的样本数目表示即可,下同) (2)算法3-NN的训练误差是多少? (3)算法1—NN的LOOCV(留一交叉验证)估计误差是多少? (4)算法3—NN的LOOCV(留一交叉验证)估计误差是多少? 四、 用最大似然估计的方法估计高斯分布的均值和方差,并指出其局限性。 五、随着信息化的发展,大数据的时代已经到来。海量的文本、图像、视频数据存在于互联网上,请结合自己的科研背景和兴趣,探讨机器学习方法如何在大数据分析、处理中应用.(20分)
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传

当前位置:首页 > 教育专区 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服