喉惩晌扰魏撮限苛爽烽腊姐蝗
第一章 绪论
绪论
1、单选题:
下列哪位是人工智能之父?
A: Marniv Lee Minsky
B: HerbertA.Simon
C: Allen Newell
D: John Clifford Shaw
答案: Marniv Lee Minsky
2、单选题:
根据王珏的理解,下列不属于对问题空间W的统计描述是
A: 一致性假设
B: 划分
C: 泛化能力
D: 学习能力
答案: 学习能力
3、单选题:
下列描述无监督学习错误的是
A: 无标签
B: 核心是聚类
C: 不需要降维
D: 具有很好的解释性
答案: 不需要降维
4、单选题:
下列描述有监督学习错误的是
A: 有标签
B: 核心是分类
C: 所有数据都相互独立分布
D: 分类原因不透明
答案: 所有数据都相互独立分布
5、单选题:
下列哪种归纳学习采用符号表示方式?
A: 经验归纳学习
B: 遗传算法
C: 联接学习
D: 强化学习
答案: 经验归纳学习
6、单选题:
混淆矩阵的假正是指
A: 模型预测为正的正样本
B: 模型预测为正的负样本
C: 模型预测为负的正样本
D: 模型预测为负的负样本
答案: 模型预测为正的负样本
7、单选题:
混淆矩阵的真负率公式是为
A: TP/(TP+FN)
B: FP/(FP+TN)
C: FN/(TP+FN)
D: TN/(TN+FP)
答案: TN/(TN+FP)
8、单选题:
混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是
A: 1/4
B: 1/2
C: 4/7
D: 4/6
答案: 1/2
9、单选题:
混淆矩阵中的TP=16,FP=12,FN=8,TN=4,精确率是
A: 1/4
B: 1/2
C: 4/7
D: 2/3
答案: 4/7
10、单选题:
混淆矩阵中的TP=16,FP=12,FN=8,TN=4,召回率是
A: 1/4
B: 1/2
C: 4/7
D: 2/3
答案: 2/3
11、单选题:
混淆矩阵中的TP=16,FP=12,FN=8,TN=4,F1-score是
A: 4/13
B: 8/13
C: 4/7
D: 2/3
答案: 8/13
第二章 期望最大化算法
期望最大化算法
1、单选题:
EM算法的E和M指什么?
A: Expectation-Maximum
B: Expect-Maximum
C: Extra-Maximum
D: Extra-Max
答案: Expectation-Maximum
2、单选题:
EM算法的核心思想是?
A: 通过不断地求取目标函数的下界的最优值,从而实现最优化的目标。
B: 列出优化目标函数,通过方法计算出最优值。
C: 列出优化目标函数,通过数值优化方法计算出最优值。
D: 列出优化目标函数,通过坐标下降的优化方法计算出最优值。
答案: 通过不断地求取目标函数的下界的最优值,从而实现最优化的目标。
3、判断题:
关于EM算法的收敛性,EM算法理论上不能够保证收敛。
A: 正确
B: 错误
答案: 错误
4、判断题:
关于EM算法的用途,EM算法只适用不完全数据的情形。
A: 正确
B: 错误
答案: 错误
5、判断题:
Jessen不等式等号成立的条件是:变量为常数
A: 正确
B: 错误
答案: 正确
6、判断题:
Jessen不等式E(f(x)) >= f(E(x)), 左边部分大于等于右边部分的条件是函数f是凸函数,如果f是凹函数,左边部分应该是小于等于右边部分。
A: 正确
B: 错误
答案: 正确
7、判断题:
EM算法因为是理论可以保证收敛的,所以肯定能够取得最优解。
A: 正确
B: 错误
答案: 错误
8、判断题:
EM算法首先猜测每个数据来自哪个高斯分布,然后求取每个高斯的参数,之后再去重新猜测每个数据来自哪个高斯分布,类推进一步迭代,直到收敛,从而得到最后的参数估计值。
A: 正确
B: 错误
答案: 正确
9、判断题:
EM算法,具有通用的求解形式,因此对任何问题,其求解过程都是一样,都能很容易求得结果。
A: 正确
B: 错误
答案: 错误
10、判断题:
EM算法通常不需要设置步长,而且收敛速度一般很快。
A: 正确
B: 错误
答案: 正确
第三章 主题建模
主题建模
1、单选题:
LDA模型的隐变量Z是
A: 每个词对应的主题
B: 每篇文档对应的主题
C: 每段话对应的主题
D: 每个词组对应的主题
答案: 每个词对应的主题
2、单选题:
LDA模型中的一个主题指:
A: 词集合上的一个概率分布
B: 词组集合上的一个概率分布
C: 整个文档上的一个概率分布
D: 整个文档集合上的一个概率分布
答案: 词集合上的一个概率分布
3、多选题:
LDA模型在做参数估计时,最常用的方法是
A: Gibbs采样方法
B: 变分推断
C: 梯度下降
D: Beam search
答案: Gibbs采样方法;
变分推断
4、判断题:
吉布斯采样是一种通用的采样方法,对于任何概率分布都可以采样出对应的样本。
A: 正确
B: 错误
答案: 错误
5、判断题:
LDA模型的核心假设是:假设每个文档首先由主题分布表示,然后主题由词概率分布表示,形成文档-主题-词的三级层次。
A: 正确
B: 错误
答案: 正确
6、判断题:
Gibbs采样是一类通用的采样方法,和M-H采样方法没有任何关系。
A: 正确
B: 错误
答案: 错误
7、判断题:
关于LDA模型中的K,K的指定,必须考虑数据集合的特点,选择一个较为优化的数值。
A: 正确
B: 错误
答案: 错误
8、判断题:
LDA模型是一种生成式模型
A: 正确
B: 错误
答案: 正确
9、判断题:
主题建模的关键是确定数据集合的主题个数。
A: 正确
B: 错误
答案: 错误
10、判断题:
主题建模本质上是:一种新的文档表示方法,主要是通过主题的分布来表示一个文档。一种数据压缩方法,将文档压缩在更小的空间中。
A: 正确
B: 错误
答案: 正确
第四章 支持向量机
支持向量机
1、单选题:
SVM算法的性能取决于:
A: 核函数的选择
B: 软间隔参数
C: 核函数的参数
D: 以上所有
答案: 以上所有
2、单选题:
SVM中的代价参数C表示什么?
A: 交叉验证的次数
B: 用到的核函数
C: 在分类准确性和模型复杂度之间的权衡
D: 以上都不对
答案: 在分类准确性和模型复杂度之间的权衡
3、单选题:
下列有关支持向量机说法不正确的是:
A: 采用结构风险最小化原理
B: 具有很好的推广能力
C: 是凸二次优化问题
D: 得到的是局部最优解
答案: 得到的是局部最优解
4、单选题:
下列有关核函数不正确的是:
A: 极大地提高了学习机器的非线性处理能力
B: 函数与非线性映射并不是一一对应的关系
C: 满足Mercer条件的函数不一定能作为支持向量机的核函数
D: 可以采用cross-va1idalion方法选择最佳核函数
答案: 满足Mercer条件的函数不一定能作为支持向量机的核函数
5、单选题:
一对一法分类器,k个类别需要多少个SVM:
A: k
B: k!
C: k(k-1)/2
D: k(k-1)
答案: k(k-1)/2
6、判断题:
SVM中的泛化误差代表SVM对新数据的预测准确度
A: 正确
B: 错误
答案: &nbs
上方为免费预览版答案,如需购买完整答案,请点击下方红字:
为了方便下次阅读,建议在浏览器添加书签收藏本网页
添加书签方法:
1.电脑按键盘的Ctrl键+D键即可收藏本网页
2.手机浏览器可以添加书签收藏本网页
点击浏览器底部菜单-【添加书签】-收藏本网页
点击浏览器底部菜单-【书签/历史】-可查看本网页
获取更多慕课答案,欢迎在浏览器访问我们的网站:
http://mooc.mengmianren.com
注:请切换至英文输入法输入域名,如果没有成功进入网站,请输入完整域名:http://mooc.mengmianren.com/
我们的公众号
打开手机微信,扫一扫下方二维码,关注微信公众号:萌面人APP
本公众号可查看各种网课答案,还可免费查看大学教材答案
点击这里,可查看公众号功能介绍
APP下载
APP功能说明
1.可查看各种网课答案
点击【萌面人官网】,可查看知到智慧树,超星尔雅学习通,学堂在线等网课答案
点击【中国大学慕课答案】,可查看mooc慕课答案
2.可一键领取淘宝/天猫/京东/拼多多无门槛优惠券
如图所示,点击对应图标即可领取淘宝/天猫/京东/拼多多无门槛优惠券
茫嗜赦容扰策徘豁高铅夏酚患