裙守藕憾掣奇洁赋盎顷博点式
第一讲深度学习概述
第一讲测验
1、单选题:
机器学习(深度学习)系统中通常将数据集划分为训练集和测试集,其中被用来学习得到系统的参数取值的是
A: 训练集(training set)
B: 测试集(testing set)
C: 训练集(training set)和测试集(testing set)
D: 其它答案都不对
答案: 训练集(training set)
2、单选题:
k折交叉验证通常将数据集随机分为k个子集。下列关于k折交叉验证说法错误的是
A: 每次将其中一个子集作为测试集,剩下k-1个子集作为训练集进行训练
B: 每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试
C: 划分时有多种方法,例如对非平衡数据可以用分层采样,就是在每一份子集中都保持和原始数据集相同的类别比例
D: k折交叉验证相对于留出法,其性能评价结果通常要相对更稳定一些
答案: 每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试
3、单选题:
ROC (受试者工作特征曲线, receiver operating characteristic curve)描绘了分类器在 fp rate (错误的正例,横轴) 和tp rate(真正正例,纵轴) 间的trade-off(权衡)。下面说法正确的是:
A: (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高
B: (纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率高
C: (纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率低
D: (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率低
答案: (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高
4、单选题:
关于 Cohen’ s kappa取值的含义,下列错误的是:
A: 其取值通常在-1和+1之间
B: 其取值为+1,说明一致性最好
C: 其取值越大,说明一致性越好
D: 其取值越小,说明一致性越好
答案: 其取值越小,说明一致性越好
5、单选题:
下列关于验证集(validation set)的描述错误的是
A: 某些情况下,可以对训练集做进一步划分,即分为训练集和验证集
B: 验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果
C: 验证集与测试集之间的区别是,验证集主要用于模型选择和调整超参数,因而一般不用于报告最终结果
D: 验证集的数据规模通常小于训练集的数据规模
答案: 验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果
6、单选题:
下面关于机器学习与深度学习的描述错误的是:
A: 深度学习是机器学习的重要分支
B: 深度学习来源于人工神经网络
C: 深度学习是多层的人工神经网络,典型的模型包括卷积神经网络等
D: 其它答案都不对
答案: 其它答案都不对
7、单选题:
下面关于有监督学习、无监督学习的描述错误的是
A: 有监督学习是从有正确答案的样本集合中学习,即每个样本的分类标签(classification label)或者目标值(target value)已知
B: 无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)
C: 有监督学习中样本的ground truth指的是每个样本的真实分类标签(classification label)或者真实目标值(target value)
D: 为了获得有监督学习中样本的真实分类标签(classification label)或者真实目标值(target value),某些情况下,可以采用人工专家标注的方法获得
答案: 无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)
8、单选题:
假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则其ROC曲线的横轴FP Rate 和纵轴TP Rate 的坐标值是多少? 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
A: 横轴FP Rate=0.57; 纵轴TP Rate=0.33
B: 横轴FP Rate=0.33; 纵轴TP Rate=0.57
C: 横轴FP Rate=0.57; 纵轴TP Rate=0.57
D: 横轴FP Rate=0.80; 纵轴TP Rate=0.33
答案: 横轴FP Rate=0.33; 纵轴TP Rate=0.57
9、单选题:
下面的一段python程序是对iris数据集进行训练集合测试集的拆分,已知该数据集中样本的个数为150个,特征为4个。则下面的程序执行完毕后,print语句的输出结果应该为: from sklearn import cross_validation from sklearn import datasets iris = datasets.load_iris() X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )print (“X_train.shape:”, X_train.shape, “y_train.shape:”, y_train.shape)
A: (‘X_train.shape:’, (150, 4), ‘y_train.shape:’, (150,))
B: (‘X_train.shape:’, (90, 4), ‘y_train.shape:’, (90,))
C: (‘X_train.shape:’, (30, 4), ‘y_train.shape:’, (30,))
D: (‘X_train.shape:’, (120, 4), ‘y_train.shape:’, (120,))
答案: (‘X_train.shape:’, (120, 4), ‘y_train.shape:’, (120,))
10、单选题:
下面的一段python程序是使用支持向量机在iris数据集上进行训练的例子,且该程序已经导入了必要的模块(用省略号表示)。则程序中空格处应该填充的拟合函数是: ……iris = datasets.load_iris() X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )clf = svm.SVC(kernel=’linear’, C=1). (X_train, y_train)
A: train
B: fit
C: learn
D: ml
答案: fit
11、单选题:
下面的一段程序是标签二值化的示例程序,则最后的print语句的输出应该为:from sklearn.preprocessing import label_binarizey=[0, 1, 2]print (y)y = label_binarize(y, classes=[0, 1, 2])print (y)
A: [[0 0 1] [0 1 0] [1 0 0]]
B: [[1 0 0][1 0 0] [1 0 0]]
C: [[0 0 1] [0 0 1] [0 0 1]]
D: [[1 0 0] [0 1 0] [0 0 1]]
答案: [[1 0 0] [0 1 0] [0 0 1]]
12、单选题:
F值的定义为准确率和召回率的调和平均。如果二者(即准确率和召回率)同等重要,则为
A: F1
B: F2
C: F0.5
D: F3
答案: F1
13、多选题:
超参数和参数的区别。参数一般是模型需要根据训练数据可以自动学习出的变量。超参数一般就是根据经验确定预设的变量。下面哪些是超参数?
A: 深度学习模型的权重,偏差
B: 深度学习的学习速率、人工神经网络的层数
C: 深度学习的迭代次数
D: 深度学习的每层神经元的个数
答案: 深度学习的学习速率、人工神经网络的层数;
深度学习的迭代次数;
深度学习的每层神经元的个数
14、多选题:
关于ROC (受试者工作特征曲线, receiver operating characteristic curve)中AUC(Area Under Curve)说法正确的是
A: 定义为ROC曲线下的面积
B: AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好
C: 取值范围为[0,1]
D: 其它答案都不对
答案: 定义为ROC曲线下的面积;
AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好;
取值范围为[0,1]
15、多选题:
关于 Cohen’ s kappa 和Fleiss’ kappa的区别:
A: Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement)
B: 如果评价者多于2人时,可以考虑使用Fleiss’ kappa
C: 二者没有本质区别,可以等价
D: 其它答案都不对
答案: Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement);
如果评价者多于2人时,可以考虑使用Fleiss’ kappa
16、多选题:
下面关于使用网格搜索进行超参数的调优的描述正确的是:
A: 假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值
B: 为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合
C: 假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0, 0.5, 1.0}
D: 其它答案都不对
答案: 假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值;
为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合;
假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0, 0.5, 1.0}
17、多选题:
下面关于分类(classification)和回归(regression)的区别和联系的描述正确的是:
A: 分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的
B: 分类和回归问题通常都是有监督学习的范畴
C: 回归问题需要预测连续变量的数值:比如预测新产品的销量等
D: 可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类
答案: 分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的;
分类和回归问题通常都是有监督学习的范畴;
回归问题需要预测连续变量的数值:比如预测新产品的销量等;
可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类
18、多选题:
下列关于scikit-learn的描述正确的是
A: scikit-learn包括许多知名的机器学习算法的实现,包括SVM等
B: scikit-learn封装了其他的Python库,如自然语言处理的NLTK库
C: scikit-learn内置了大量数据集,如iris数据集等
D: scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等
答案: scikit-learn包括许多知名的机器学习算法的实现,包括SVM等;
scikit-learn封装了其他的Python库,如自然语言处理的NLTK库;
scikit-learn内置了大量数据集,如iris数据集等;
scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等
19、多选题:
已知如下定义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。 则下面定义正确的是:
A: 分类准确率 Accuracy=(TP+TN)/(P+N)
B: 精确率 Precision=TP/(TP+FP)
C: 召回率 Recall=TP/P
D: 召回率 Recall=TN/P
答案: 分类准确率 Accuracy=(TP+TN)/(P+N);
精确率 Precision=TP/(TP+FP);
召回率 Recall=TP/P
20、判断题:
测试集(testing set)用于最终报告模型的评价结果,因此在训练阶段测试集中的数据一般可以出现在训练集中.
A: 正确
B: 错误
答案: 错误
21、填空题:
假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则分类的精确率是 (要求:用小数表示,且保留小数点后两位)? 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
答案: 0.80
22、填空题:
假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则分类的召回率是 (要求:用小数表示,且保留小数点后两位)。 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
答案: 0.57
23、填空题:
下面的一段python程序是计算并输出y_true和y_pred之间的平均绝对误差,即MAE,则其中print语句的输出结果为 (要求:用小数表示,且保留小数点后两位)。 from sklearn.metrics import mean_absolute_errory_true = [3, -0.5, 2, 7]y_pred = [2.5, 0.0, 2, 9]print (mean_absolute_error(y_true, y_pred))
答案: 0.75
24、填空题:
下面的一段python程序是使用支持向量机在iris数据集上进行训练的例子,请补全导入的模块名称(用小写字母)from sklearn import cross_validation from sklearn import from sklearn import datasets iris = datasets.load_iris() X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )clf = svm.SVC(kernel=’linear’, C=1).fit(X_train, y_train)
答案: svm
第二讲特征工程概述
第二讲测验
1、单选题:
为了在python程序中进行英文自然语言的处理,如词语切分(Tokenization)词干提取(Stemming)等工作,需要使用的导入模块语句通常为:
A: import matplotlib.pyplot as plt
B: import nltk
C: import numpy as np
D: from sklearn import svm, datasets
答案: import nltk
2、单选题:
关于停用词(Stop words),下列说法错误的是
A: 停用词是指在信息检索中,为节省存储空间和提高处理效率,在处理自然语言文本之前或之后需要被过滤掉的某些字或词
B: 停用词通常是非常常见的词,几乎可能出现在所有场合,因而对于信息检索、文本分类等应用区分度不大
C: 在某些特殊应用如短语搜索 phrase search中,停用词可能是重要的构成部分,过滤掉会引起副作用,因此要避免进行停用词过滤
D: 停用词是指比较古老的词汇,在当代已经几乎无人使用了
答案: 停用词是指比较古老的词汇,在当代已经几乎无人使用了
3、单选题:
为了进行中文的分词或者词性标注等处理,可以使用的导入模块语句为:
A: import matplotlib.pyplot as plt
B: import numpy as np
C: import jieba
D: from sklearn import svm, datasets
答案: import jieba
4、单选题:
关于文档向量之间的欧氏距离和余弦相似度,错误的是
A: 欧氏距离指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)
B: 余弦相似度,又称为余弦相似性,是通过计算两个向量的夹角余弦值来评估他们的相似度
C: 余弦值越接近0,就表明两个向量越相似
D: 两个向量之间的欧氏距离越大,则通常其余弦相似度越小
答案: 余弦值越接近0,就表明两个向量越相似
5、单选题:
关于TF-IDF(term frequency–inverse document frequency),下面的说法错误的是
A: TF-IDF是一种用于信息检索与数据挖掘的常用加权技术。TF意思是词频(Term Frequency),IDF意思是逆文本频率指数(Inverse Document Frequency)。
B: TF-IDF的背景是:特征向量里高频词的权重更大,这些词在文集内其他文档里面也经常出现。它们往往太普遍,对区分文档起的作用不大。因此有必要抑制那些在很多文档中都出现了的词条的权重。
C: 采用TF-IDF模式,词条t在文档d中的权重计算与词条在在文档d中的频率无关
D: 采用TF-IDF模式,词条t在文档d中的权重计算与词条在在文档d中的频率有关
答案: 采用TF-IDF模式,词条t在文档d中的权重计算与词条在在文档d中的频率无关
6、单选题:
下面关于特征缩放(Feature Scaler)的描述错误的是
A: 特征缩放主要是对特征矩阵中每个列,即同一特征维度的数值进行规范化处理
B: 其应用背景包括不同特征(列)不属于同一量纲等场合
C: 常用特征缩放方法有标准化法、区间缩放法等
D: 特征缩放主要是对特征矩阵中每个行,即每个样本的数值进行规范化处理
答案: 特征缩放主要是对特征矩阵中每个行,即每个样本的数值进行规范化处理
7、单选题:
下面关于特征矩阵的归一化(Normalizer)的描述错误的是
A: 归一化是依照特征矩阵的行,即每个样本进行处理
B: 其目的是使样本向量在进行点乘运算或计算相似性时,拥有统一的标准,即都转化为“单位向量”,使每个样本的范式等于 1。
C: 归一化是主要是对特征矩阵中每个列,即同一特征维度的数值进行规范化处理
D: 常见的归一化公式为L1 范式和L2 范式等
答案: 归一化是主要是对特征矩阵中每个列,即同一特征维度的数值进行规范化处理
8、单选题:
关于特征降维方法有线性判别分析(LDA)和主成分分析法(PCA),错误的是
A: LDA和PCA的共同点是,都可以将原始的样本映射到维度更低的样本空间
B: LDA是为了让映射后的样本有最好的分类性能。即LDA是一种有监督的降维方法
C: PCA是为了让映射后的样本具有最大的发散性,即PCA是一种无监督的降维方法
D: LDA和PCA都是有监督的降维方法
答案: LDA和PCA都是有监督的降维方法
9、单选题:
下面是对数据进行二值化处理的python程序from sklearn.preprocessing import Binarizerdata = [[0, 0], [50, 0], [100, 1], [80, 1]]print (Binarizer(threshold=60).fit_transform(data))则print语句的输出结果为
A: [[0 0] [0 0] [1 1] [0 1]]
B: [[1 0] [1 0] [0 1] [1 1]]
C: [[0 0] [0 0] [0 0] [0 0]]
D: [[0 0] [0 0] [1 0] [1 0]]
答案: [[0 0] [0 0] [1 0] [1 0]]
10、单选题:
下面是一段文档的向量化的程序,且未经停用词过滤 from sklearn.feature_extraction.text import CountVectorizercorpus = [’Jobs was the chairman of Apple Inc., and he was very famous’,’I like to use apple computer’,’And I also like to eat apple’] vectorizer =CountVectorizer()print(vectorizer.vocabulary_)print(vectorizer.fit_transform(corpus).todense()) #转化为完整特征矩阵 已知print(vectorizer.vocabulary_)的输出结果为:{u’and’: 1, u’jobs’: 9, u’apple’: 2, u’very’: 15, u’famous’: 6, u’computer’: 4, u’eat’: 5, u’he’: 7, u’use’: 14, u’like’: 10, u’to’: 13, u’of’: 11, u’also’: 0, u’chairman’: 3, u’the’: 12, u’inc’: 8, u’was’: 16}. 则最后一条print语句中文档D1,即’Jobs was the chairman of Apple Inc., and he was very famous’的向量为
A: [0 1 1 1 0 0 1 1 1 1 0 1 1 0 0 1 2]
B: [0 0 1 0 1 0 0 0 0 0 1 0 0 1 1 0 0]
C: [1 1 1 0 0 1 0 0 0 0 1 0 0 1 0 0 0]
D: 其它答案都不对
答案: [0 1 1 1 0 0 1 1 1 1 0 1 1 0 0 1 2]
11、单选题:
对于下面的一段python程序,计算的是向量之间的import numpy as npx=np.random.random(5)y=np.random.random(5)sim=np.dot(x,y)/(np.linalg.norm(x)*np.linalg.norm(y))
A: 欧氏距离
B: 余弦相似度
C: 欧式相似度
D: 马修相关系数
答案: 余弦相似度
12、单选题:
对于下面的一段python程序,sim中保存的是向量之间的:import numpy as npx=np.random.random(5)y=np.random.random(5)from scipy.spatial.distance import pdistX=np.vstack([x,y])sim=1-pdist(X,’cosine’)
A: 欧氏距离
B: 余弦相似度
C: 余弦距离
D: 马修相关系数
答案: 余弦相似度
13、单选题:
下面的一段python程序的目的是利用皮尔逊相关系数进行iris数据集特征选择import numpy as npfrom scipy.stats import pearsonrfrom sklearn import datasetsiris = datasets.load_iris()print (“Pearson’s correlation coefficient between column #1 and target column”, pearsonr(iris.data[:,0], iris.target ))print (“Pearson’s correlation coefficient between column #2 and target column”, pearsonr(iris.data[:,1], iris.target ))print (“Pearson’s correlation coefficient between column #3 and target column”, pearsonr(iris.data[:,2], iris.target ))print (“Pearson’s correlation coefficient between column #4 and target column”, pearsonr(iris.data[:,3], iris.target )) 其输出结果为:(“Pearson’s correlation coefficient between column #1 and target column”, (0.7825612318100814, 2.890478352614054e-32))(“Pearson’s correlation coefficient between column #2 and target column”, (-0.4194462002600275, 9.159984972550002e-08))(“Pearson’s correlation coefficient between column #3 and target column”, (0.9490425448523336, 4.1554775794971695e-76))(“Pearson’s correlation coefficient between column #4 and target column”, (0.9564638238016173, 4.775002368756619e-81)) 则如果去掉一个特征,应该选择哪一个特征去掉?
A: #1
B: #2
C: #3
D: #4
答案: #2
14、单选题:
下面的一段python程序中有两条print语句,则下面哪一种选项更有可能是其实际的输出结果?import numpy as npfrom scipy.stats import pearsonrx = np.random.uniform(-1, 1, 100000) print (pearsonr(x, x*2)[0] )print (pearsonr(x, x**2)[0] )
A: 1.0, -1.0
B: 1.0, 1.0
C: 1.0, -0.0020496310421256546
D: -0.0020496310421256546, -0.0020496310421256546
答案: 1.0, -0.0020496310421256546
15、单选题:
下面的一段python程序的目的是对样本特征矩阵进行归一化处理,则空格处应该填充的函数是? from sklearn import datasetsiris = datasets.load_iris()from sklearn.preprocessing import Normalizerprint (Normalizer(norm=’l1′). (iris.data))
A: fit
B: fit_transform
C: transform
D: normalizer
答案: fit_transform
16、单选题:
下面的一段python程序的目的是使用主成分分析法(principal component analysis) 对iris数据集进行特征降维,以便于数据的二维平面可视化。则其中空格处应该填充的数字为? import matplotlib.pyplot as pltfrom sklearn.decomposition import PCAfrom sklearn.datasets import load_irisdata = load_iris()X = data.datay = data.targetpca = PCA(n_components= )reduced_X = pca.fit_transform(X)
A: 1
B: 2
C: 3
D: 4
答案: 2
17、单选题:
下面的一段python程序的目的是使用区间缩放法对矩阵的列数据进行量纲缩放,则两处空格应该分别填入什么? from sklearn.preprocessing import MinMaxScalerdata = [[0, 0], [0, 78], [80, 1], [100, 89]] scaler = MinMaxScaler()scaler. (data)results=scaler. (data)print (results)
A: fit, fit
B: transform, transform
C: transform, fit
D: fit, transform
答案: fit, transform
18、单选题:
下面的一段python程序的目的什么?import scipy.sparse as spfrom sklearn.preprocessing import Imputerx = sp.csc_matrix([ [1, 2], [0, 3], [7, 6]])imp = Imputer(missing_values=0, strategy=’mean’, verbose=0)imp.fit(x)x_test = sp.csc_matrix([ [0, 2], [6, 0], [7, 6]])
A: 样本特征矩阵的量纲的缩放
B: 缺失值补齐,将0视为缺失值
C: 样本特征矩阵的归一化
D: 多项式特征的生成
答案: 缺失值补齐,将0视为缺失值
19、单选题:
关于下面的python程序的描述错误的是?from sklearn.feature_extraction.text import CountVectorizercorpus = [’Jobs was the chairman of Apple Inc., and he was very famous’,’I like to use apple computer’,’And I also like to eat apple’] vectorizer =CountVectorizer(ngram_range=(1,2))print(“N-gram mode: “,vectorizer.fit_transform(corpus).todense()) print(“N-gram mode: “,vectorizer.vocabulary_)
A: 用n-gram模式进行文档向量化
B: vocabulary_中既包括unigram,也包括bigram
C: CountVectorizer没有考虑到IDF,即倒排文档频率
D: vocabulary_中只包括bi-gram
答案: vocabulary_中只包括bi-gram
20、单选题:
为了使用主成分分析法(principal component analysis) 对iris数据集进行特征降维,以便于数据的二维平面可视化。 则下面哪一条import语句不是必须的?
A: import matplotlib.pyplot as plt
B: from sklearn.decomposition i
上方为免费预览版答案,如需购买完整答案,请点击下方红字:
为了方便下次阅读,建议在浏览器添加书签收藏本网页
添加书签方法:
1.电脑按键盘的Ctrl键+D键即可收藏本网页
2.手机浏览器可以添加书签收藏本网页
点击浏览器底部菜单-【添加书签】-收藏本网页
点击浏览器底部菜单-【书签/历史】-可查看本网页
获取更多慕课答案,欢迎在浏览器访问我们的网站:
http://mooc.mengmianren.com
注:请切换至英文输入法输入域名,如果没有成功进入网站,请输入完整域名:http://mooc.mengmianren.com/
我们的公众号
打开手机微信,扫一扫下方二维码,关注微信公众号:萌面人APP
本公众号可查看各种网课答案,还可免费查看大学教材答案
点击这里,可查看公众号功能介绍
APP下载
APP功能说明
1.可查看各种网课答案
点击【萌面人官网】,可查看知到智慧树,超星尔雅学习通,学堂在线等网课答案
点击【中国大学慕课答案】,可查看mooc慕课答案
2.可一键领取淘宝/天猫/京东/拼多多无门槛优惠券
如图所示,点击对应图标即可领取淘宝/天猫/京东/拼多多无门槛优惠券
湿较酚识捌绒计宝懒那窘川汀