20春-神经网络原理-李寿山-1(苏州大学)1452678188 中国大学MOOC答案100分完整版

顶形领惩卑够佳抹抬膘毛裴墓

第一讲深度学习概述

第一讲测验

1、单选题:
机器学习(深度学习)系统中通常将数据集划分为训练集和测试集,其中被用来学习得到系统的参数取值的是‎

A: 训练集(training set)
B: 测试集(testing set)
C: 训练集(training set)和测试集(testing set)
D: 其它答案都不对
答案:  训练集(training set)

2、单选题:
k折交叉验证通常将数据集随机分为k个子集。下列关于k折交叉验证说法错误的是‍

A: 每次将其中一个子集作为测试集,剩下k-1个子集作为训练集进行训练
B: 每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试
C: 划分时有多种方法,例如对非平衡数据可以用分层采样,就是在每一份子集中都保持和原始数据集相同的类别比例
D: k折交叉验证相对于留出法,其性能评价结果通常要相对更稳定一些
答案:  每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试

3、单选题:
‍‍ROC (受试者工作特征曲线, receiver operating characteristic curve)描绘了分类器在 fp rate (错误的正例,横轴) 和tp rate(真正正例,纵轴) 间的trade-off(权衡)。‍下面说法正确的是:‍

A: (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高
B: (纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率高
C:  (纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率低
D:  (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率低
答案:  (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高

4、单选题:
关于 Cohen’ s kappa取值的含义,下列错误的是:‎

A: 其取值通常在-1和+1之间
B: 其取值为+1,说明一致性最好
C: 其取值越大,说明一致性越好
D: 其取值越小,说明一致性越好
答案:  其取值越小,说明一致性越好

5、单选题:
下列关于验证集(validation set)的描述错误的是​

A: 某些情况下,可以对训练集做进一步划分,即分为训练集和验证集
B: 验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果
C:  验证集与测试集之间的区别是,验证集主要用于模型选择和调整超参数,因而一般不用于报告最终结果
D: 验证集的数据规模通常小于训练集的数据规模
答案:  验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果

6、单选题:
 下面关于机器学习与深度学习的描述错误的是:‏

A: 深度学习是机器学习的重要分支
B: 深度学习来源于人工神经网络
C: 深度学习是多层的人工神经网络,典型的模型包括卷积神经网络等
D: 其它答案都不对
答案:  其它答案都不对

7、单选题:
下面关于有监督学习、无监督学习的描述错误的是‌

A: 有监督学习是从有正确答案的样本集合中学习,即每个样本的分类标签(classification label)或者目标值(target value)已知
B: 无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)
C: 有监督学习中样本的ground truth指的是每个样本的真实分类标签(classification label)或者真实目标值(target value)
D: 为了获得有监督学习中样本的真实分类标签(classification label)或者真实目标值(target value),某些情况下,可以采用人工专家标注的方法获得
答案:  无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)

8、单选题:
假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则其ROC曲线的横轴FP Rate 和纵轴TP Rate 的坐标值是多少? ‌​实‌​际‌​类‌​别‌预测类别‌​ ‌​正例‌​负例‌​总计‌​正例‌​TP=40‌​FN=30‌​P(实际为正例)=70‌​负例‌​FP=10‌​TN=20‌​N(实际为负例)=30‌表中数据项的含义:‌True positives(TP):  被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);‌False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;‌False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;‌True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。‌

A: 横轴FP Rate=0.57; 纵轴TP Rate=0.33
B: 横轴FP Rate=0.33; 纵轴TP Rate=0.57
C: 横轴FP Rate=0.57; 纵轴TP Rate=0.57
D: 横轴FP Rate=0.80; 纵轴TP Rate=0.33
答案:  横轴FP Rate=0.33; 纵轴TP Rate=0.57

9、单选题:
下面的一段python程序是对iris数据集进行训练集合测试集的拆分,已知该数据集中样本的个数为150个,特征为4个。则下面的程序执行完毕后,print语句的输出结果应该为:‏ ‏from sklearn import cross_validation  ‏from sklearn import datasets  ‏iris = datasets.load_iris()  ‏X_train, X_test, y_train, y_test = cross_validation.train_test_split‏(iris.data, iris.target, test_size=0.2 )‏print (“X_train.shape:”, X_train.shape, “y_train.shape:”, y_train.shape)‏

A:    (‘X_train.shape:’, (150, 4), ‘y_train.shape:’, (150,))
B:   (‘X_train.shape:’, (90, 4), ‘y_train.shape:’, (90,))
C: (‘X_train.shape:’, (30, 4), ‘y_train.shape:’, (30,))
D:  (‘X_train.shape:’, (120, 4), ‘y_train.shape:’, (120,))
答案:   (‘X_train.shape:’, (120, 4), ‘y_train.shape:’, (120,))

10、单选题:
下面的一段python程序是使用支持向量机在iris数据集上进行训练的例子,且该程序已经导入了必要的模块(用省略号表示)。则程序中空格处应该填充的拟合函数是:‍ ‍……‍iris = datasets.load_iris()  ‍X_train, X_test, y_train, y_test = cross_validation.train_test_split‍(iris.data, iris.target, test_size=0.2 )‍clf = svm.SVC(kernel=’linear’, C=1).    (X_train, y_train)  ‍

A: train
B: fit
C: learn
D: ml
答案:  fit

11、单选题:
下面的一段程序是标签二值化的示例程序,则最后的print语句的输出应该为:‌from sklearn.preprocessing import label_binarize‌y=[0, 1, 2]‌print (y)‌y = label_binarize(y, classes=[0, 1, 2])‌print (y)‌

A: [[0 0 1]  [0 1 0]  [1 0 0]]
B: [[1 0 0][1 0 0]  [1 0 0]]
C: [[0 0 1]  [0 0 1]  [0 0 1]]
D: [[1 0 0]  [0 1 0]  [0 0 1]]
答案:  [[1 0 0]  [0 1 0]  [0 0 1]]

12、单选题:
F值的定义为准确率和召回率的调和平均。如果二者(即准确率和召回率)同等重要,则为​

A: F1
B: F2
C: F0.5
D: F3
答案:  F1

13、多选题:
超参数和参数的区别。参数一般是模型需要根据训练数据可以自动学习出的变量。超参数一般就是根据经验确定预设的变量。下面哪些是超参数?‏

A: 深度学习模型的权重,偏差
B: 深度学习的学习速率、人工神经网络的层数
C: 深度学习的迭代次数
D: 深度学习的每层神经元的个数
答案:  深度学习的学习速率、人工神经网络的层数;
深度学习的迭代次数;
深度学习的每层神经元的个数

14、多选题:
关于ROC (受试者工作特征曲线, receiver operating characteristic curve)中AUC(Area Under Curve)说法正确的是‍

A: 定义为ROC曲线下的面积
B: AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好
C: 取值范围为[0,1]
D: 其它答案都不对
答案:  定义为ROC曲线下的面积;
AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好;
取值范围为[0,1]

15、多选题:
关于 Cohen’ s kappa 和Fleiss’ kappa的区别:‏

A: Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement)
B: 如果评价者多于2人时,可以考虑使用Fleiss’ kappa
C: 二者没有本质区别,可以等价
D: 其它答案都不对
答案:  Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement);
如果评价者多于2人时,可以考虑使用Fleiss’ kappa

16、多选题:
下面关于使用网格搜索进行超参数的调优的描述正确的是:‌

A: 假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值
B: 为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合
C: 假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0,   0.5,  1.0}
D: 其它答案都不对
答案:  假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值;
为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合;
假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0,   0.5,  1.0}

17、多选题:
下面关于分类(classification)和回归(regression)的区别和联系的描述正确的是:‌

A: 分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的
B: 分类和回归问题通常都是有监督学习的范畴
C: 回归问题需要预测连续变量的数值:比如预测新产品的销量等
D: 可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类
答案:  分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的;
分类和回归问题通常都是有监督学习的范畴;
回归问题需要预测连续变量的数值:比如预测新产品的销量等;
可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类

18、多选题:
下列关于scikit-learn的描述正确的是‏

A: scikit-learn包括许多知名的机器学习算法的实现,包括SVM等
B: scikit-learn封装了其他的Python库,如自然语言处理的NLTK库
C: scikit-learn内置了大量数据集,如iris数据集等
D: scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等
答案:  scikit-learn包括许多知名的机器学习算法的实现,包括SVM等;
scikit-learn封装了其他的Python库,如自然语言处理的NLTK库;
scikit-learn内置了大量数据集,如iris数据集等;
scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等

19、多选题:
已知如下定义:‎True positives(TP):  被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);‎False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;‎False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;‎True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。‎ ‎则下面定义正确的是:‎

A: 分类准确率 Accuracy=(TP+TN)/(P+N)
B: 精确率 Precision=TP/(TP+FP)
C: 召回率 Recall=TP/P
D: 召回率 Recall=TN/P
答案:  分类准确率 Accuracy=(TP+TN)/(P+N);
精确率 Precision=TP/(TP+FP);
召回率 Recall=TP/P

20、判断题:
‎测试集(testing set)用于最终报告模型的评价结果,因此在训练阶段测试集中的数据一般可以出现在训练集中.‎

A: 正确
B: 错误
答案:  错误

21、填空题:
假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则分类的精确率是            (要求:用小数表示,且保留小数点后两位)?‎ ‎​实‎​际‎​类‎​别‎预测类别‎​ ‎​正例‎​负例‎​总计‎​正例‎​TP=40‎​FN=30‎​P(实际为正例)=70‎​负例‎​FP=10‎​TN=20‎​N(实际为负例)=30‎表中数据项的含义:‎True positives(TP):  被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);‎False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;‎False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;‎True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。‎​‎
答案:  0.80

22、填空题:
假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则分类的召回率是         (要求:用小数表示,且保留小数点后两位)。 ‌‌实‌‌际‌‌类‌‌别‌预测类别‌‌ ‌‌正例‌‌负例‌‌总计‌‌正例‌‌TP=40‌‌FN=30‌‌P(实际为正例)=70‌‌负例‌‌FP=10‌‌TN=20‌‌N(实际为负例)=30‌表中数据项的含义:‌True positives(TP):  被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);‌False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;‌False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;‌True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。‌
答案:  0.57

23、填空题:
下面的一段python程序是计算并输出y_true和y_pred之间的平均绝对误差,即MAE,则其中print语句的输出结果为       (要求:用小数表示,且保留小数点后两位)。‎ ‎from sklearn.metrics import mean_absolute_error‎y_true = [3, -0.5, 2, 7]‎y_pred = [2.5, 0.0, 2, 9]‎print (mean_absolute_error(y_true, y_pred))‎
答案:  0.75

24、填空题:
下面的一段python程序是使用支持向量机在iris数据集上进行训练的例子,请补全导入的模块名称(用小写字母)‍from sklearn import cross_validation  ‍from sklearn import           ‍from sklearn import datasets  ‍ ‍iris = datasets.load_iris()  ‍X_train, X_test, y_train, y_test = cross_validation.train_test_split‍(iris.data, iris.target, test_size=0.2 )‍clf = svm.SVC(kernel=’linear’, C=1).fit(X_train, y_train)  ‍
答案:  svm

第二讲特征工程概述

第二讲测验

1、单选题:
为了在python程序中进行英文自然语言的处理,如词语切分(Tokenization)词干提取(Stemming)等工作,需要使用的导入模块语句通常为:‍

A: import matplotlib.pyplot as plt
B: import nltk
C: import numpy as np
D: from sklearn import svm, datasets
答案:  import nltk

2、单选题:
关于停用词(Stop words),下列说法错误的是‏

A: 停用词是指在信息检索中,为节省存储空间和提高处理效率,在处理自然语言文本之前或之后需要被过滤掉的某些字或词
B: 停用词通常是非常常见的词,几乎可能出现在所有场合,因而对于信息检索、文本分类等应用区分度不大
C: 在某些特殊应用如短语搜索 phrase search中,停用词可能是重要的构成部分,过滤掉会引起副作用,因此要避免进行停用词过滤
D: 停用词是指比较古老的词汇,在当代已经几乎无人使用了
答案:  停用词是指比较古老的词汇,在当代已经几乎无人使用了

3、单选题:
为了进行中文的分词或者词性标注等处理,可以使用的导入模块语句为:​

A: import matplotlib.pyplot as plt
B: import numpy as np
C: import jieba
D: from sklearn import svm, datasets
答案:  import jieba

4、单选题:
关于文档向量之间的欧氏距离和余弦相似度,错误的是‏

A: 欧氏距离指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)
B: 余弦相似度,又称为余弦相似性,是通过计算两个向量的夹角余弦值来评估他们的相似度
C: 余弦值越接近0,就表明两个向量越相似
D: 两个向量之间的欧氏距离越大,则通常其余弦相似度越小
答案:  余弦值越接近0,就表明两个向量越相似

5、单选题:
关于TF-IDF(term frequency–inverse document frequency),下面的说法错误的是‎

A: TF-IDF是一种用于信息检索与数据挖掘的常用加权技术。TF意思是词频(Term Frequency),IDF意思是逆文本频率指数(Inverse Document Frequency)。
B: TF-IDF的背景是:特征向量里高频词的权重更大,这些词在文集内其他文档里面也经常出现。它们往往太普遍,对区分文档起的作用不大。因此有必要抑制那些在很多文档中都出现了的词条的权重。
C: 采用TF-IDF模式,词条t在文档d中的权重计算与词条在在文档d中的频率无关
D: 采用TF-IDF模式,词条t在文档d中的权重计算与词条在在文档d中的频率有关
答案:  采用TF-IDF模式,词条t在文档d中的权重计算与词条在在文档d中的频率无关

6、单选题:
下面关于特征缩放(Feature Scaler)的描述错误的是‏

A: 特征缩放主要是对特征矩阵中每个列,即同一特征维度的数值进行规范化处理
B: 其应用背景包括不同特征(列)不属于同一量纲等场合
C: 常用特征缩放方法有标准化法、区间缩放法等
D: 特征缩放主要是对特征矩阵中每个行,即每个样本的数值进行规范化处理
答案:  特征缩放主要是对特征矩阵中每个行,即每个样本的数值进行规范化处理

7、单选题:
下面关于特征矩阵的归一化(Normalizer)的描述错误的是​

A: 归一化是依照特征矩阵的行,即每个样本进行处理
B: 其目的是使样本向量在进行点乘运算或计算相似性时,拥有统一的标准,即都转化为“单位向量”,使每个样本的范式等于 1。
C: 归一化是主要是对特征矩阵中每个列,即同一特征维度的数值进行规范化处理
D: 常见的归一化公式为L1 范式和L2 范式等
答案:  归一化是主要是对特征矩阵中每个列,即同一特征维度的数值进行规范化处理

8、单选题:
关于特征降维方法有线性判别分析(LDA)和主成分分析法(PCA),错误的是‌

A: LDA和PCA的共同点是,都可以将原始的样本映射到维度更低的样本空间
B: LDA是为了让映射后的样本有最好的分类性能。即LDA是一种有监督的降维方法
C: PCA是为了让映射后的样本具有最大的发散性,即PCA是一种无监督的降维方法
D: LDA和PCA都是有监督的降维方法
答案:  LDA和PCA都是有监督的降维方法

9、单选题:
​下面是对数据进行二值化处理的python程序​from sklearn.preprocessing import Binarizer​data =   [[0, 0],​        [50, 0],​        [100, 1],​        [80, 1]]​print (Binarizer(threshold=60).fit_transform(data))​则print语句的输出结果为​

A: [[0 0] [0 0] [1 1] [0 1]]
B: [[1 0] [1 0] [0 1] [1 1]]
C: [[0 0] [0 0] [0 0] [0 0]]
D: [[0 0] [0 0] [1 0] [1 0]]
答案:  [[0 0] [0 0] [1 0] [1 0]]

10、单选题:
下面是一段文档的向量化的程序,且未经停用词过滤​ ​from sklearn.feature_extraction.text import CountVectorizer​corpus = [​’Jobs was the chairman of Apple Inc., and he was very famous’,​’I like to use apple computer’,​’And I also like to eat apple’​] ​vectorizer =CountVectorizer()​print(vectorizer.vocabulary_)​print(vectorizer.fit_transform(corpus).todense())  #转化为完整特征矩阵​ ​已知print(vectorizer.vocabulary_)的输出结果为:​{u’and’: 1, u’jobs’: 9, u’apple’: 2, u’very’: 15, u’famous’: 6, u’computer’: 4, u’eat’: 5, u’he’: 7, u’use’: 14, u’like’: 10, u’to’: 13, u’of’: 11, u’also’: 0, u’chairman’: 3, u’the’: 12, u’inc’: 8, u’was’: 16}. ​   则最后一条print语句中文档D1,即’Jobs was the chairman of Apple Inc., and he was very famous’的向量为​

A: [0 1 1 1 0 0 1 1 1 1 0 1 1 0 0 1 2]
B: [0 0 1 0 1 0 0 0 0 0 1 0 0 1 1 0 0]
C: [1 1 1 0 0 1 0 0 0 0 1 0 0 1 0 0 0]
D: 其它答案都不对
答案:  [0 1 1 1 0 0 1 1 1 1 0 1 1 0 0 1 2]

11、单选题:
对于下面的一段python程序,计算的是向量之间的‍import numpy as np‍x=np.random.random(5)‍y=np.random.random(5)‍sim=np.dot(x,y)/(np.linalg.norm(x)*np.linalg.norm(y))‍

A: 欧氏距离
B:  余弦相似度
C: 欧式相似度
D: 马修相关系数
答案:   余弦相似度

12、单选题:
对于下面的一段python程序,sim中保存的是向量之间的:‎import numpy as np‎x=np.random.random(5)‎y=np.random.random(5)‎from scipy.spatial.distance import pdist‎X=np.vstack([x,y])‎sim=1-pdist(X,’cosine’)‎

A: 欧氏距离
B: 余弦相似度
C: 余弦距离
D: 马修相关系数
答案:  余弦相似度

13、单选题:
下面的一段python程序的目的是利用皮尔逊相关系数进行iris数据集特征选择​import numpy as np​from scipy.stats import pearsonr​from sklearn import datasets​iris = datasets.load_iris()​print (“Pearson’s correlation coefficient between column #1 and target column”, pearsonr(iris.data[:,0], iris.target ))​print (“Pearson’s correlation coefficient between column #2 and target column”, pearsonr(iris.data[:,1], iris.target ))​print (“Pearson’s correlation coefficient between column #3 and target column”, pearsonr(iris.data[:,2], iris.target ))​print (“Pearson’s correlation coefficient between column #4 and target column”, pearsonr(iris.data[:,3], iris.target ))​ ​其输出结果为:​(“Pearson’s correlation coefficient between column #1 and target column”, (0.7825612318100814, 2.890478352614054e-32))​(“Pearson’s correlation coefficient between column #2 and target column”, (-0.4194462002600275, 9.159984972550002e-08))​(“Pearson’s correlation coefficient between column #3 and target column”, (0.9490425448523336, 4.1554775794971695e-76))​(“Pearson’s correlation coefficient between column #4 and target column”, (0.9564638238016173, 4.775002368756619e-81))​ ​则如果去掉一个特征,应该选择哪一个特征去掉?​

A: #1
B: #2
C: #3
D: #4
答案:  #2

14、单选题:
下面的一段python程序中有两条print语句,则下面哪一种选项更有可能是其实际的输出结果?​import numpy as np​from scipy.stats import pearsonr​x = np.random.uniform(-1, 1, 100000) ​print (pearsonr(x, x*2)[0] )​print (pearsonr(x, x**2)[0] )​

A: 1.0,      -1.0
B: 1.0,      1.0
C: 1.0,      -0.0020496310421256546
D:  -0.0020496310421256546,      -0.0020496310421256546
答案:  1.0,      -0.0020496310421256546

15、单选题:
下面的一段python程序的目的是对样本特征矩阵进行归一化处理,则空格处应该填充的函数是?​ from sklearn import datasets​iris = datasets.load_iris()​from sklearn.preprocessing import Normalizer​print (Normalizer(norm=’l1′).        (iris.data))​

A: fit
B: fit_transform
C: transform
D: normalizer
答案:  fit_transform

16、单选题:
下面的一段python程序的目的是使用主成分分析法(principal component analysis) 对iris数据集进行特征降维,以便于数据的二维平面可视化。则其中空格处应该填充的数字为?‍ ‍import matplotlib.pyplot as plt‍from sklearn.decomposition import PCA‍from sklearn.datasets import load_iris‍data = load_iris()‍X = data.data‍y = data.target‍pca = PCA(n_components=    )‍reduced_X = pca.fit_transform(X)‍

A: 1
B: 2
C: 3
D: 4
答案:  2

17、单选题:
下面的一段python程序的目的是使用区间缩放法对矩阵的列数据进行量纲缩放,则两处空格应该分别填入什么?‏ ‏from sklearn.preprocessing import MinMaxScaler‏data = [[0, 0], ‏        [0, 78], ‏        [80, 1], ‏        [100, 89]]‏ ‏scaler = MinMaxScaler()‏scaler.      (data)‏results=scaler.       (data)‏print (results)‏

A: fit,    fit
B: transform,    transform
C: transform,    fit
D: fit,    transform
答案:  fit,    transform

18、单选题:
下面的一段python程序的目的什么?‎import scipy.sparse as sp‎from sklearn.preprocessing import Imputer‎x = sp.csc_matrix([‎        [1, 2], ‎        [0, 3],‎        [7, 6]])‎imp = Imputer(missing_values=0, strategy=’mean’, verbose=0)‎imp.fit(x)‎x_test = sp.csc_matrix([‎        [0, 2],‎        [6, 0], ‎        [7, 6]])‎

A: 样本特征矩阵的量纲的缩放
B: 缺失值补齐,将0视为缺失值
C: 样本特征矩阵的归一化
D: 多项式特征的生成
答案:  缺失值补齐,将0视为缺失值

19、单选题:
关于下面的python程序的描述错误的是?‏from sklearn.feature_extraction.text import CountVectorizer‏corpus = [‏’Jobs was the chairman of Apple Inc., and he was very famous’,‏’I like to use apple computer’,‏’And I also like to eat apple’‏] ‏vectorizer =CountVectorizer(ngram_range=(1,2))‏print(“N-gram mode: “,vectorizer.fit_transform(corpus).todense())  ‏print(“N-gram mode: “,vectorizer.vocabulary_)‏

A: 用n-gram模式进行文档向量化
B:  vocabulary_中既包括unigram,也包括bigram
C: CountVectorizer没有考虑到IDF,即倒排文档频率
D: vocabulary_中只包括bi-gram
答案:  vocabulary_中只包括bi-gram

20、单选题:
为了使用主成分分析法(principal component analysis) 对iris数据集进行特征降维,以便于数据的二维平面可视化。 则下面哪一条import语句不是必须的?‍

A: import matplotlib.pyplot as plt
B: from sklearn.decomposition i



上方为免费预览版答案,如需购买完整答案,请点击下方红字:



点击这里,购买完整版答案


为了方便下次阅读,建议在浏览器添加书签收藏本网页

添加书签方法:

1.电脑按键盘的Ctrl键+D键即可收藏本网页

2.手机浏览器可以添加书签收藏本网页

点击浏览器底部菜单-【添加书签】-收藏本网页

20春-神经网络原理-李寿山-1(苏州大学)1452678188 中国大学MOOC答案100分完整版第1张

点击浏览器底部菜单-【书签/历史】-可查看本网页

20春-神经网络原理-李寿山-1(苏州大学)1452678188 中国大学MOOC答案100分完整版第2张


获取更多慕课答案,欢迎在浏览器访问我们的网站:



http://mooc.mengmianren.com

20春-神经网络原理-李寿山-1(苏州大学)1452678188 中国大学MOOC答案100分完整版第3张

20春-神经网络原理-李寿山-1(苏州大学)1452678188 中国大学MOOC答案100分完整版第4张

注:请切换至英文输入法输入域名,如果没有成功进入网站,请输入完整域名:http://mooc.mengmianren.com/


我们的公众号

打开手机微信,扫一扫下方二维码,关注微信公众号:萌面人APP

本公众号可查看各种网课答案,还可免费查看大学教材答案

点击这里,可查看公众号功能介绍

20春-神经网络原理-李寿山-1(苏州大学)1452678188 中国大学MOOC答案100分完整版第5张




APP下载



点击这里下载萌面人APP,使用更方便!




APP功能说明

1.可查看各种网课答案

点击【萌面人官网】,可查看知到智慧树,超星尔雅学习通,学堂在线等网课答案

20春-神经网络原理-李寿山-1(苏州大学)1452678188 中国大学MOOC答案100分完整版第6张

点击【中国大学慕课答案】,可查看mooc慕课答案

20春-神经网络原理-李寿山-1(苏州大学)1452678188 中国大学MOOC答案100分完整版第7张

2.可一键领取淘宝/天猫/京东/拼多多无门槛优惠券

如图所示,点击对应图标即可领取淘宝/天猫/京东/拼多多无门槛优惠券

20春-神经网络原理-李寿山-1(苏州大学)1452678188 中国大学MOOC答案100分完整版第8张


芜忌显勉杉滥法傻冯浓圭鸥炒