题目内容 (请给出正确答案)
[主观题]

K近邻数值预测是利用一个样本的K个最相似的邻居的目标属性的取值来进行预测。

提问人:网友lijunduo 发布时间:2022-01-07
参考答案
  抱歉!暂无答案,正在努力更新中……
如搜索结果不匹配,请 联系老师 获取答案
更多“K近邻数值预测是利用一个样本的K个最相似的邻居的目标属性的取…”相关的问题
第1题
K近邻方法的核心思想是对一个预测样本A,从训练数据集中找到与其最相似的k个样本,利用这个k个样本的类别来决策该样本A的类别。
点击查看答案
第2题
以下描述适用于适用哪个数据挖掘算法:如果一个样本在特征空间中的N个最相似的样本中的大多数属于某一个类别,则该样本也属于这个类别?()

A.KNN,K最近邻算法

B.神经网络(NeuralNet)

C.支持向量机SVM

D.决策树(DecisionTree)

点击查看答案
第3题
k 近邻方法不需要事先学习分类模型,当需要预测的时候,根据预测样本的特性和已知训练数据集中的数据进行类别的判断。
点击查看答案
第4题
经济预测一个最常用的方法就是利用样本回归方程进行区问预测。()

点击查看答案
第5题
K-means(K-均值)和K-NN(K-最近邻)都有算法参数K,下列有关二者的说法正确的有()。

A.K-means中的K表示样本簇(聚类)的数目

B.K-NN中的K表示最近邻的数目

C.二者都由用户给定且其取值都对算法性能产生重要影响

D.二者取值都必须大于1(不能等于1)

点击查看答案
第6题
以下哪些是K近邻分类器的优化算法?

A.快速K近邻算法

B.压缩近邻法

C.最近邻算法

D.K近邻算法

点击查看答案
第7题
选择较小的k值,相当于用较小的邻域中的训练实例进行预测,学习的“近似误差”会减小,“估计误差”会增大,预测结果会对近邻的点实例点非常敏感。()
点击查看答案
第8题
最近邻分类器易受噪声或异常点数据的影响,为了降低噪声或异常点的影响,可以采用K近邻分类器,并且K值取值越大,分类器的性能越鲁棒。
点击查看答案
第9题
k近邻法的基本要素包括()。

A.距离度量

B.k值的选择

C.样本大小

D.分类决策规则

点击查看答案
第10题
以下关于K近邻分类器描述正确的有_____.

A.SVM和贝叶斯分类器需要提前训练好分类器才能用于分类,而K近邻分类器不需要提前训练分类器。

B.K近邻分类器是一个非线性分类器。

C.K近邻分类器可以直接用于多类的分类问题。

D.K近邻分类器的分类结果不受距离函数的选择的影响。

点击查看答案
账号:
你好,尊敬的用户
复制账号
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
欢迎分享答案

为鼓励登录用户提交答案,简答题每个月将会抽取一批参与作答的用户给予奖励,具体奖励活动请关注官方微信公众号:简答题

简答题官方微信公众号

警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
简答题
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反简答题购买须知被冻结。您可在“简答题”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
简答题
点击打开微信