About 13 results
Open links in new tab
  1. 哪里有标准的机器学习术语 (翻译)对照表? - 知乎

    学习机器学习时的困惑,“认字不识字”。很多中文翻译的术语不知其意,如Pooling,似乎90%的书都翻译为“…

  2. 为什么没有人把 boosting 的思路应用在深度学习上? - 知乎

    (5)Boosting算法对于样本的异常值十分敏感,因为Boosting算法中每个分类器的输入都依赖于前一个分类器的分类结果,会导致误差呈指数级累积。 而用于深度学习模型训练的样本数量很 …

  3. 请问机器学习中bagging和boosting两种算法的区别是什么? - 知乎

    Boosting流程图 3.Bagging、Boosting二者之间的区别 3.1 样本选择上 Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。 Boosting:每一轮的训练集 …

  4. 什么是「过拟合」,如何判断,常见的原因是什么? - 知乎

    使用集成方法: 如 Bagging 和 Boosting, 通过集成多个模型的预测结果,提升模型的鲁棒性和泛化能力。 Bagging(如随机森林)通过降低方差减少过拟合,Boosting(如梯度提升树)则通过 …

  5. 机器学习算法中GBDT与Adaboost的区别与联系是什么? - 知乎

    谢邀,试答一下。 Boosting算法 Boosting算法特征如下:通过将一些表现效果一般(可能仅仅优于随机猜测)的模型通过特定方法进行组合来获得一个表现效果较好的模型。从抽象的角度来 …

  6. 集成算法中bagging、boosting和stacking有什么区别 ... - 知乎

    13.1 集成学习算法原理详解,Bagging,Boosting及 随机森林。 本课程为40节SPSS Modeler 数据挖掘 从入门到精通系列课程,主题课程已经更新完毕,将持续更新新的技巧

  7. Boosting 和 Adaboost 的关系和区别是什么? - 知乎

    Nov 20, 2015 · boosting 是一种将弱分类器转化为强分类器的方法统称,而adaboost是其中的一种,采用了exponential loss function(其实就是用指数的权重),根据不同的loss function还可 …

  8. 基于树的adaboost和Gradient Tree Boosting区别? - 知乎

    基于树的adaboost和Gradient Tree Boosting具体区别,在学习时,哪个效果会更好一点(不考虑计算时间成本)

  9. 为什么说bagging是减少variance,而boosting是减少bias? - 知乎

    是前n-1步得到的子模型的和。 因此boosting是在sequential地最小化损失函数,其bias自然逐步下降。 但由于是采取这种sequential、adaptive的策略,各子模型之间是强相关的,于是子模型 …

  10. Not only…but also…倒装该怎么使用? - 知乎

    Not only does the huge span of this steel concrete bridge prove that China is capable of building record massive architecutre, the bridge itself will also play an important role in promoting …