A.轮廓系数
B.共性分类相关系数
C.熵
D.F度量
您可能感兴趣的试卷
你可能感兴趣的试题
A.将负样本重复10次,生成10w样本量,打乱顺序参与分类
B.直接进行分类,可以最大限度利用数据
C.从10w正样本中随机抽取1w参与分类
D.将负样本每个权重设置为10,正样本权重为1,参与训练过程
A.最小损失准则
B.N-P判决
C.最小最大损失准则
D.最小误判概率准则
A.构建决策树输入数据的随机选取
B.构建决策树分裂节点的随机选取
C.构建决策树树的数量的随机选取
D.构建决策树所需特征的随机选取
A.这个被重复的特征在模型中的决定作用会被加强
B.模型效果相比无重复特征的情况下精确度会降低
C.如果所有特征都被重复一遍,得到的模型预测结果相对于不重复的情况下的模型预测结果一样
D.当两列特征高度相关时,无法用两列特征相同时所得到的结论来分析问题
A.基本假设包括随机干扰项是均值为0,方差为1的标准正态分布
B.基本假设包括随机干扰项是均值为0的同方差正态分布
C.在违背基本假设时,普通最小二乘法估计量不再是最佳线性无偏估计量
D.在违背基本假设时,模型不再可以估计
A.可决系数R^2的定义为被回归方程已经解释的变差与总变差的比
B.0<=R^2<=1
C.可决系数R^2反映了样本回归线对样本观测值拟合优劣程度的一种描述
D.可决系数R^2的大小不受到回归模型中所包含的解释变量个数的影响
A.用信息增益率来选择属性
B.在树构造过程中进行剪枝
C.能够完成对连续属性的离散化处理
D.在树的构造过程中,不需要对数据集进行多次的顺序扫描和排序
A.KNN
B.线性回归
C.逻辑回归
D.K-Means
A.二者都可以处理分类问题
B.二者都可以增加不同的正则化项
C.二者都是参数模型
D.SVM的处理方法是只考虑supportvectors,也就是和分类最相关的少数点,去学习分类器
A.有放回简单随机抽样
B.无放回简单随机抽样
C.分层抽样
D.整群抽样
最新试题
逻辑回归和SVM的联系与区别,正确的是?()
在分类问题中,我们经常会遇到正负样本数据量不等的情况,比如正样本为10w条数据,负样本只有1w条数据,以下最合适的处理方法是()?
利用Apriori算法计算频繁项集可以有效降低计算频繁集的时间复杂度。在以下的购物篮中产生支持度不小于3的候选3-项集,在候选2-项集中需要剪枝的是()
ROC曲线的y轴,实际上可以由每个阈值下混淆矩阵的()计算而来
属于簇有效性的监督度量是:()
对于一个多分类模型,可以如何选择训练集?()
以下哪些算法,可以用神经网络去构造?()
表2是由表1的数据得到的,表2中的M和N的值应该分别为?()表2
以下算法中,属于无监督算法的是()
关于可决系数R^2,下列说法中正确的是?()