正确答案:C
正确答案:D
正确答案:A
22秋学期(高起本1709-2103、全层次2109-2103)《数据科学导论》在线作业-00001
正确答案:A
正确答案:A
试卷总分:100 得分:100
一、单选题 (共 20 道试题,共 40 分)
1.通过构造新的指标-线损率,当超出线损率的正常范围, 则可以判断这条线路的用户可能存在窃漏电等异常行为属于数据变换中的()
A.简单函数变换
B.规范化
C.属性构造
D.连续属性离散化
正确答案:A
正确答案:A
正确答案:C
正确答案:A
2.实体识别的常见形式()
A.同名异义
B.异名同义
C.单位不统一
D.属性不同
正确答案:B
正确答案:B
3.置信度(confidence)是衡量兴趣度度量( )的指标。
正确答案:A
正确答案:D
A.简洁性
正确答案:D
B.确定性
C.实用性
D.新颖性
正确答案:C
正确答案:A
4.以下哪个不是处理缺失值的方法()
A.删除记录
B.按照一定原则补充
C.不处理
D.随意填写
正确答案:C
正确答案:C
5.设X={1,2,3}是频繁项集,则可由X产生()个关联规则。
A.4
B.5
C.6
D.7
正确答案:A
正确答案:C
6.为了解决任何复杂的分类问题,使用的感知机结构应至少包含()个隐含层。
A.1
B.2
C.3
D.4
正确答案:A
正确答案:D
正确答案:B
正确答案:B
正确答案:B
正确答案:C
正确答案:C
正确答案:A
正确答案:C
正确答案:C
7.在一元线性回归模型中,残差项服从()分布。
A.泊松
B.正态
C.线性
D.非线性
正确答案:B
正确答案:B
8.以下哪一项不是特征工程的子问题()
A.特征创建
B.特征提取
C.特征选择
D.特征识别
正确答案:D
正确答案:B
9.聚类的最简单最基本方法是()。
A.划分聚类
B.层次聚类
C.密度聚类
D.距离聚类
正确答案:B
正确答案:A
正确答案:B
正确答案:C
10.单层感知机模型属于()模型。
A.二分类的线性分类模型
B.二分类的非线性分类模型
C.多分类的线性分类模型
D.多分类的非线性分类模型
正确答案:D
正确答案:C
正确答案:D
11.下列两个变量之间的关系中,哪个是函数关系()。
A.人的性别和他的身高
B.人的工资与年龄
C.正方形的面积和边长
D.温度与湿度
正确答案:D
正确答案:C
正确答案:D
12.特征选择的四个步骤中不包括()
A.子集产生
B.子集评估
C.子集搜索
D.子集验证
正确答案:A
正确答案:C
13.在一元线性回归中,通过最小二乘法求得的直线叫做回归直线或()。
A.最优回归线
B.最优分布线
C.最优预测线
D.最佳分布线
正确答案:C
正确答案:D
正确答案:B
14.单层感知机拥有()层功能神经元。
A.一
B.二
C.三
D.四
正确答案:A
正确答案:B
15.一元线性回归中,真实值与预测值的差称为样本的()。
A.误差
B.方差
C.测差
D.残差
正确答案:A
正确答案:B
16.比如一张表,从业务上讲,一个用户应该只会有一条记录, 那么如果某个用户出现了超过一条的记录,这就产生了()
A.异常值
B.不一致的值
C.重复值
D.缺失值
正确答案:B
正确答案:A
17.通过变量标准化计算得到的回归方程称为()。
A.标准化回归方程
B.标准化偏回归方程
C.标准化自回归方程
D.标准化多回归方程
正确答案:A
正确答案:A
正确答案:B
21.维克托?迈尔-舍恩伯格在《大数据时代:生活、工作与思维的大变革》一书中,持续强调了一个观点:大数据时代的到来,使我们无法人为地去发现数据中的奥妙,与此同时,我们更应该注重数据中的相关关系,而不是因果关系。其中,数据之间的相关关系可以通过以下哪个算法直接挖掘( )
A.K-means
B.Bayes Network
C.C4.5
D.Apriori
正确答案:B
正确答案:A
正确答案:D
19.BFR聚类用于在()欧氏空间中对数据进行聚类
A.高维
B.中维
C.低维
D.中高维
正确答案:D
正确答案:B
20.在有统计学意义的前提下,标准化偏回归系数的绝对值越大,说明相应的自变量对y的作用()。
A.越小
B.越大
C.无关
D.不确定
正确答案:D
正确答案:A
正确答案:C
正确答案:D
二、多选题 (共 10 道试题,共 20 分)
正确答案:A
21.一元回归参数估计的参数求解方法有()。
A.最大似然法
B.距估计法
C.最小二乘法
D.欧式距离法
正确答案:A
正确答案:D
22.距离度量中的距离可以是()
A.欧式距离
B.曼哈顿距离
C.Lp距离
D.Minkowski距离
正确答案:A
正确答案:D
正确答案:D
23.对于多层感知机,()层拥有激活函数的功能神经元。
A.输入层
B.隐含层
C.输出层
24.Apriori算法的计算复杂度受()影响。
A.支持度阈值
B.项数
C.事务数
D.事务平均宽度
正确答案:C
正确答案:A
正确答案:D
25.k近邻法的基本要素包括()。
A.距离度量
B.k值的选择
C.样本大小
D.分类决策规则
正确答案:A
正确答案:B
正确答案:A
26.系统日志收集的基本特征有()
A.高可用性
B.高可靠性
C.可扩展性
D.高效率
正确答案:A
正确答案:C
正确答案:C
27.什么情况下结点不用划分()
A.当前结点所包含的样本全属于同一类别
B.当前属性集为空,或是所有样本在所有属性上取值相同
C.当前结点包含的样本集为空
D.还有子集不能被基本正确分类
正确答案:C
正确答案:A
正确答案:B
28.多层感知机的学习过程包含()。
A.信号的正向传播
B.信号的反向传播
C.误差的正向传播
D.误差的反向传播
正确答案:A
正确答案:D
正确答案:A
29.聚类的主要方法有()。
A.划分聚类
B.层次聚类
C.密度聚类
D.距离聚类
30.层次聚类的方法是()
A.聚合方法
B.分拆方法
C.组合方法
D.比较方法
正确答案:C
正确答案:C
正确答案:C
三、判断题 (共 20 道试题,共 40 分)
31.数据分析师的任务:用模型来回答具体问题,了解数据,其来源和结构
32.决策树还可以表示给定特征条件下类的条件概率分布,这一概率分布定义在特征空间的一个划分上,将特征空间分为互不相交的单元或区域,并在每个单元定义一个类的概率分布就构成了一个条件概率分布
33.信息熵越小,样本结合的纯度越低
34.子集产生本质上是一个搜索过程,该过程可以从空集、随机产生的一个特征子集或者整个特征集开始。
35.BFR聚类簇的坐标可以与空间的坐标保持一致。
36.探索性数据分析的特点是研究从原始数据入手,完全以实际数据为依据。
37.特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。
38.神经网络中误差精度的提高可以通过增加隐含层中的神经元数目来实现。
39.多元线性回归模型中,标准化偏回归系数没有单位。
40.数据科学运用科学方法分析数据,位于几个学科的交叉点并利用领域特定的知识,使大数据的分析成为可能。
41.为了更加准确地描述变量之间的线性相关程度,可以通过计算相关系数来进行相关分析。
42.赤池信息准则是衡量统计模型拟合优良性的一种标准。
43.交叉表可以帮助人们发现变量之间的相互作用。
44.随着特征维数的增加,特征空间呈指数倍增长,样本密度急剧减小,样本稀疏。
45.EDA可以最大化数据分析者对数据集和数据集底层结构的洞察力,并且为分析者提供数据集中包含的各类信息。
正确答案:D
正确答案:B
46.利用K近邻法进行分类时,使用不同的距离度量所确定的最近邻点都是相同的。
47.选择较小的k值,相当于用较小的邻域中的训练实例进行预测,学习的“近似误差”会减小,“估计误差”会增大,预测结果会对近邻的点实例点非常敏感。
正确答案:A
正确答案:D
48.聚合方法是自底向上的方法。
49.对于分类数据,经常使用表格,来统计各种类别的数据出现的频率。
50.利用K近邻法进行分类时,k值过小容易发生过拟合现象。
南开22秋学期《数据科学导论》在线作业[答案]历年参考题目如下:
21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《数据科学导论》在线作业
试卷总分:100 得分:100
一、单选题 (共 20 道试题,共 40 分)
1.BFR聚类是用于处理数据集()的k-means变体。
A.大
B.中
C.小
D.所有
正确答案:B
正确答案:A
2.考虑下面的频繁3-项集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定数据集中只有5个项,采用 合并策略,由候选产生过程得到4-项集不包含()
A.1,2,3,4
B.1,2,3,5
C.1,2,4,5
D.1,3,4,5
正确答案:C
3.以下哪一项不是特征选择常见的方法()
A.过滤式
B.封装式
C.嵌入式
D.开放式
正确答案:D
4.例如将工资收入属性值映射到[-1,1]或者[0,1]内属于数据变换中的()
A.简单函数变换
B.规范化
C.属性构造
D.连续属性离散化
5.对于k近邻法,下列说法错误的是()。
A.不具有显式的学习过程
B.适用于多分类任务
C.k值越大,分类效果越好
D.通常采用多数表决的分类决策规则
正确答案:B
6.手肘法的核心指标是()。
A.SES
B.SSE
C.RMSE
D.MSE
正确答案:D
7.在k近邻法中,选择较小的k值时,学习的“近似误差”会(),“估计误差”会()。
正确答案:A
A.减小,减小
B.减小,增大
C.增大,减小
D.增大,增大
正确答案:D
8.变量之间的关系一般可以分为确定性关系与()。
A.非确定性关系
B.线性关系
C.函数关系
D.相关关系
正确答案:C
9.某商品的产量(X,件)与单位成本(Y,元/件)之间的回归方程为^Y=100-1.2X,这说明()。
A.产量每增加一台,单位成本增加100元
B.产量每增加一台,单位成本减少1.2元
C.产量每增加一台,单位成本平均减少1.2元
D.产量每增加一台,单位平均增加100元
正确答案:D
10.层次聚类对给定的数据进行()的分解。
A.聚合
B.层次
C.分拆
D.复制
正确答案:B
11.下列两个变量之间的关系中,哪个是函数关系()。
A.人的性别和他的身高
B.人的工资与年龄
C.正方形的面积和边长
D.温度与湿度
12.通过变量标准化计算得到的回归方程称为()。
A.标准化回归方程
B.标准化偏回归方程
C.标准化自回归方程
D.标准化多回归方程
13.以下属于关联分析的是( )
A.CPU性能预测
B.购物篮分析
C.自动判断鸢尾花类别
D.股票趋势建模
正确答案:B
14.单层感知机模型属于()模型。
A.二分类的线性分类模型
B.二分类的非线性分类模型
C.多分类的线性分类模型
D.多分类的非线性分类模型
15.以下哪一项不属于数据变换()
A.简单函数变换
B.规范化
C.属性合并
D.连续属性离散化
16.层次聚类适合规模较()的数据集
A.大
B.中
C.小
D.所有
17.维克托?迈尔-舍恩伯格在《大数据时代:生活、工作与思维的大变革》一书中,持续强调了一个观点:大数据时代的到来,使我们无法人为地去发现数据中的奥妙,与此同时,我们更应该注重数据中的相关关系,而不是因果关系。其中,数据之间的相关关系可以通过以下哪个算法直接挖掘( )
A.K-means
B.Bayes Network
C.C4.5
D.Apriori
18.根据映射关系的不同可以分为线性回归和()。
A.对数回归
B.非线性回归
C.逻辑回归
D.多元回归
正确答案:C
19.数据质量检验的主要任务就是检查原始数据中是否存在“脏数据”,概括性来说,脏数据不包括以下()
正确答案:A
A.普通值
B.异常值
C.不一致的值
D.重复值
正确答案:C
20.在一元线性回归中,通过最小二乘法求得的直线叫做回归直线或()。
A.最优回归线
B.最优分布线
C.最优预测线
D.最佳分布线
二、多选题 (共 10 道试题,共 20 分)
21.层次聚类的方法是()
A.聚合方法
B.分拆方法
C.组合方法
D.比较方法
22.k近邻法的基本要素包括()。
A.距离度量
B.k值的选择
C.样本大小
D.分类决策规则
23.对于多层感知机,()层拥有激活函数的功能神经元。
A.输入层
B.隐含层
C.输出层
24.Apriori算法的计算复杂度受()影响。
A.支持度阈值
B.项数
C.事务数
D.事务平均宽度
25.系统日志收集的基本特征有()
A.高可用性
B.高可靠性
C.可扩展性
D.高效率
26.K-means聚类中K值选取的方法是()。
A.密度分类法
B.手肘法
C.大腿法
D.随机选取
正确答案:D
27.多层感知机的学习过程包含()。
A.信号的正向传播
B.信号的反向传播
C.误差的正向传播
D.误差的反向传播
28.什么情况下结点不用划分()
A.当前结点所包含的样本全属于同一类别
B.当前属性集为空,或是所有样本在所有属性上取值相同
C.当前结点包含的样本集为空
D.还有子集不能被基本正确分类
29.下面例子属于分类的是()
A.检测图像中是否有人脸出现
B.对客户按照贷款风险大小进行分类
C.识别手写的数字
D.估计商场客流量
正确答案:A
30.距离度量中的距离可以是()
A.欧式距离
B.曼哈顿距离
C.Lp距离
D.Minkowski距离
三、判断题 (共 20 道试题,共 40 分)
31.增加神经元的个数,无法提高神经网络的训练精度。
32.一个人的身高与体重之间具有函数关系。
33.可信度是对关联规则的准确度的衡量。
34.给定一组点,使用点之间的距离概念,将点分组为若干簇,不同簇的成员可以相同。
35.K均值(K-Means)算法是密度聚类。
36.具有双隐层的感知机足以用于解决任何复杂的分类问题。
37.当维度增加时,特征空间的体积增加得很快,使得可用的数据变得稠密。
38.集中趋势能够表明在一定条件下数据的独特性质与差异
39.给定关联规则A→B,意味着:若A发生,B也会发生。
40.数据科学运用科学方法分析数据,位于几个学科的交叉点并利用领域特定的知识,使大数据的分析成为可能。
41.BFR聚类簇的坐标可以与空间的坐标保持一致。
42.剪枝是决策树学习算法对付“过拟合”的主要手段
正确答案:B