下面有关聚类算法的分布式实现说法错误的是哪个?
A、k-均值聚类需要大量的迭代,因此不能使用分布式计算。
B、k-均值的分布式实现需要MapReduce的各个数据节点共享假设的聚类中心。
C、k-均值算法的大量迭代运算在分布式环境下的效率一般更高。
D、k-均值在Spark内存计算框架下运行要比Hadoop MapReduce下运行要快的多。
A、k-均值聚类需要大量的迭代,因此不能使用分布式计算。
B、k-均值的分布式实现需要MapReduce的各个数据节点共享假设的聚类中心。
C、k-均值算法的大量迭代运算在分布式环境下的效率一般更高。
D、k-均值在Spark内存计算框架下运行要比Hadoop MapReduce下运行要快的多。
A.并行决策树可以对每个属性的重要性分别进行计算。
B.并行k均值算法在map程序中各个数据节点要共享各分组的几何重心(每次迭代产生的“聚类中心”)。
C.常见的机器学习算法可以使用批处理的改造方式实现分布式计算。
D.分布式机器学习利用并行计算可以提升算法的性能。
A.K均值聚类一定能达到很好的聚类结果
B.K均值聚类的迭代次数越多,算法结果越稳定
C.当样本量较大时,可以利用K均值聚类方法
D.随机起点的设置不同,K均值聚类的结果一定相同
A.在K均值聚类算法中,我们不必事先就确定聚类数目。
B.EM算法分为求取期望和期望最大化两个步骤。
C.在K均值聚类算法中,欧式距离与方差量纲相同。
D.在K均值聚类算法中,未达到迭代次数上限,迭代不会停止。
A.使用K均值聚类方法,需要一开始设置聚类个数
B.K均值聚类适用于数据是连续型的场合
C.我们只能利用侧影统计量辅助决定K均值聚类个数的选择
D.变量个数越多,K均值聚类结果越好
A.k均值算法采用误差和准则函数,其聚类目标是使准则函数值最小
B.理论上可以证明,k均值聚类算法是收敛的
C.k均值算法的聚类结果虽然收敛但不确定
D.聚类结果受设定的聚类数k、初始聚类中心和样本的分布情况影响
A.在聚类分析中,簇之间的相似性越大,簇内样本的差别越大,聚类的效果就越好
B.聚类分析可以看作是一种非监督的样本分组过程
C.k均值算法是一种常用的聚类算法,簇的个数算法不能自动确定
D.k均值算法的计算耗时与初始假设聚类中心的位置有关
A.已经达到了迭代次数上限,或者前后两次迭代中聚类质心基本保持不变
B.已经达到了迭代次数上限,或者每个待聚类样本分别归属唯一一个聚类集合
C.已经形成了K个聚类集合,或者已经达到了迭代次数上限
D.已经形成了K个聚类集合,或者每个待聚类样本分别归属唯一一个聚类集合
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!