About 23 results
Open links in new tab
  1. 稀疏(sparse)在机器学习中很重要吗?为什么? - 知乎

    Dec 7, 2015 · 深度学习论文中经常看到"sparse",所以应该是重要的概念,但一直不理解很困惑; 刚才在quora上的回答感觉很有帮助,尝试总结以下: sparse 代表数据为0,sparse数据的存 …

  2. 如何看待Native Sparse Attention? - 知乎

    这就是 Sparse attention 类的论文的核心出发点,其中的关键就是用什么算法去压缩 token 数量,NSA 也不例外。 NSA 的野心要比之前的论文要大一些,它希望可以同时适用于训练和推 …

  3. 什么是稀疏特征(Sparse Features)? - 知乎

    如果你想知道为什么sparse feature在某些应用里面表现很好,可以参考: 为什么sparse representation比起其它成分分析方法(DFT,Wavelet)能得到更好的效果? - Bihan Wen 的 …

  4. keras中的三种分类交叉熵分别是什么意思? - 知乎

    Dec 24, 2019 · sparse_categorical_crossentropy:与多类交叉熵相同,适用于稀疏情况。如上,但接受稀疏标签。注意,使用该函数时仍然需要你的标签与输出值的维度相同,你可能需要在标签 …

  5. Sparse Transformer - 知乎

    Jan 20, 2024 · Sparse Transformer 的提出动机是基于一个在 CIFAR-10 数据集上,使用一个 128 层 Self-Attention 模型,对注意力模式可视化后得到的。 如图 1 到图 4 所示,它是一个基于自 …

  6. 哪里有标准的机器学习术语(翻译)对照表? - 知乎

    稀疏特征 (sparse feature) 一种特征向量,其中的大多数值都为 0 或为空。例如,某个向量包含一个为 1 的值和一百万个为 0 的值,则该向量就属于稀疏向量。再举一个例子,搜索查询中的 …

  7. 参数矩阵和稀疏输入矩阵相乘,如何降低计算量和复杂度? - 知乎

    需要把 input 按照 sparse_csr的格式创建出来就行了,如果input逻辑上shape很大,只能用 torch.sparse_csr_tensor。如果本身input不大,那to_sparse_csr也OK。注意 to_sparse 创建 …

  8. 请问用ansys里的mesh划分网格报错是为什么? - 知乎

    May 9, 2022 · 10、There is not enough memory for the Sparse Matrix solver to proceed。 没有足够的内存供稀疏矩阵求解器继续。 内存不足,增加物理内存、虚拟内存、简化模型、减少网 …

  9. 为什么sparse representation比起其它成分分析方 …

    Sparse representation 不见得比wavelet效果好,redundant system会比wavelet效果好,通俗点讲就是因为当某些分量丢失时,这些分量所载负的信息, 能在没有损失的其它分量里存在,你 …

  10. 如何评价Sparse R-CNN,目标检测未来会如何发展? - 知乎

    Sparse R-CNN确实做的很好,等的就是这样的工作! 极致简单,不需要复杂anchor先验设置、不需要nms、不需要RPN,将整个faster rcnn的pipeline变得非常简洁。 论文核心思想应该是借 …