About 12 results
Open links in new tab
  1. 请问机器学习中bagging和boosting两种算法的区别是什么? - 知乎

    Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。 3.3 预测函数. Bagging:所有预测函数的权重相等。 Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器 …

  2. 为什么没有人把 boosting 的思路应用在深度学习上? - 知乎

    (5)Boosting算法对于样本的异常值十分敏感,因为Boosting算法中每个分类器的输入都依赖于前一个分类器的分类结果,会导致误差呈指数级累积。 而用于深度学习模型训练的样本数量很 …

  3. Boosting 和 Adaboost 的关系和区别是什么? - 知乎

    Nov 20, 2015 · boosting 是一种将弱分类器转化为强分类器的方法统称,而adaboost是其中的一种,采用了exponential loss function(其实就是用指数的权重),根据不同的loss function还可 …

  4. 为什么说bagging是减少variance,而boosting是减少bias? - 知乎

    是前n-1步得到的子模型的和。因此boosting是在sequential地最小化损失函数,其bias自然逐步下降。但由于是采取这种sequential、adaptive的策略,各子模型之间是强相关的,于是子模型 …

  5. 集成学习中bagging,boosting,blending,stacking这几个 ... - 知乎

    这四个概念都是集成学习中非常重要的概念,只不过侧重的方面有所不同. bagging/boosting强调抽取数据的策略.两者都采取随机有放回取样(random sampling with replacement)的方式抽取数据, …

  6. 基于树的adaboost和Gradient Tree Boosting区别? - 知乎

    谢邀。 直接参考Machine Learning:A Probabilistic Perspective(MLAPP)的16.4节——Boosting。 该节概括了几种常用的boosting方法,包括L2Boosting、Gradient Boosting …

  7. 哪里有标准的机器学习术语(翻译)对照表? - 知乎

    76 Boosting Boosting 77 Bootstrap Aggregating Bagging 78 Bootstrap Sampling 自助采样法 79 Bootstrapping 自助法/自举法 80 Break-Event Point 平衡点 BEP 81 Bucketing 分桶 82 Calculus …

  8. 单目深度估计现在有哪些效果比较好的模型呢? - 知乎

    global adaptive bins vs local adaptive bins. 不同RGB输入对应的深度分布会有很大的不同,目前的神经网络架构主要是在低分辨率的bottleneck获取全局信息,而不能很好地在高分辨率特征获 …

  9. 机器学习算法中GBDT与Adaboost的区别与联系是什么? - 知乎

    Boosting算法. Boosting算法特征如下:通过将一些表现效果一般(可能仅仅优于随机猜测)的模型通过特定方法进行组合来获得一个表现效果较好的模型。从抽象的角度来看,Boosting算法是 …

  10. 什么是「过拟合」,如何判断,常见的原因是什么? - 知乎

    使用集成方法: 如 Bagging 和 Boosting, 通过集成多个模型的预测结果,提升模型的鲁棒性和泛化能力。 Bagging(如随机森林)通过降低方差减少过拟合,Boosting(如梯度提升树)则通过 …

Refresh