About 24 results
Open links in new tab
  1. 通俗理解,Sparse Attention是什么原理? - 知乎

    Sparse Attention的核心思想 Sparse Attention 的核心思想是避免计算每对元素之间的关系,而是仅计算序列中最重要的元素之间的关系。这样可以显著降低计算复杂度和内存占用。 具体来 …

  2. 稀疏(sparse)在机器学习中很重要吗?为什么? - 知乎

    Dec 7, 2015 · 深度学习论文中经常看到"sparse",所以应该是重要的概念,但一直不理解很困惑; 刚才在quora上的回答感觉很有帮助,尝试总结以下: sparse 代表数据为0,sparse数据的存 …

  3. 如何看待Native Sparse Attention? - 知乎

    Feb 18, 2025 · 准确率上,sparse 的模型比 full 还要搞一些。 这个我猜一点原因:(1)模型还不算大,NSA 和 full 还没遇到“瓶颈”,所以 full attention 还没摸到其上限,不能和 NSA 拉开差 …

  4. Sparse Transformer - 知乎

    Sparse Transformer 减轻计算量的方式通过让连接模式作用到 上,从而减轻 的复杂度。 如式 (3)。 对于第 个时间片的输入,首先使用 Key 和 Value 的权值矩阵乘以输入特征,得到 和 。 …

  5. 什么是稀疏特征 (Sparse Features)? - 知乎

    要回答什么是sparse feature,可能首先要理解什么是feature。 一般在machine learning意义上,我们常说的feature,是一种对数据的表达。当然,要衡量一种feature是否是合适的表达,要根 …

  6. 深度学习中的sparse和dense模型指的是什么? - 知乎

    Oct 19, 2017 · Sparse特征通常指的是那些具有大量可能值但实际使用值很少的特征,例如用户浏览过的商品ID。 这些特征在数据集中往往有很多零值,因此被称为稀疏。 在Sparse双塔模型 …

  7. 参数矩阵和稀疏输入矩阵相乘,如何降低计算量和复杂度? - 知乎

    这个例子中, sparse_input 是一个稀疏矩阵,它的非零元素的索引和值分别由 indices 和 values 参数指定。 param_matrix 是一个普通的密集矩阵,它的形状与 sparse_input 的列数匹配。然后 …

  8. 如何理解稀疏主成分分析(Sparse Principal Component Analysis)?

    变量经过PCA后得到的主成分通常在多个原始变量上都不为 0,这导致进行PCA后的主成分的含义较为模糊,给数据分析带来了一定难度,因此Zou等(2006)提出的一种新的主成分分析方 …

  9. 如何评价Sparse R-CNN,目标检测未来会如何发展? - 知乎

    3、ROI feature 和 Learnable proposal feature 用 optimal bipartite matching做匹配,而不是沿用IOU做匹配。 4、Detr中使用了 transformer让每个object query都和全局的特征图交互, …

  10. 为什么sparse representation比起其它成分分析方 …

    Sparse representation 不见得比wavelet效果好,redundant system会比wavelet效果好,通俗点讲就是因为当某些分量丢失时,这些分量所载负的信息, 能在没有损失的其它分量里存在,你 …

Refresh