为什么 tf.nn.embedding_lookup 使用嵌入列表?

追逐255

我想知道为什么tf.nn.embedding_lookup使用张量列表而tf.gather只对单个张量执行查找。为什么我需要对多个嵌入进行查找?

我想我在某处读到它对于节省大型嵌入的内存很有用,但我不确定这将如何工作,因为我不知道拆分嵌入会如何节省任何东西。

凯夫曼

tf.embedding_lookup函数假定嵌入基质分片,即,划分成很多块。事实上,当嵌入矩阵被单向分片时,它可以工作,在这种情况下,它的作用类似于tf.gather

但更有趣的情况是当嵌入矩阵很大并且您无法将其放入一台机器的内存中时,或者您希望嵌入查找操作的带宽很高。在这些情况下,它有助于将矩阵划分为多个部分。这些片段可以跨机器分布以将其全部放入内存中,并且还允许并行读取以获得更高的查找带宽。

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

为什么tf.nn.embedding_lookup使用嵌入列表?

来自分类Dev

如何在TensorFlow中使用tf.nn.embedding_lookup_sparse?

来自分类Dev

tf.nn.embedding_lookup_sparse 3D稀疏张量输入

来自分类Dev

Tensorflow embedding_lookup

来自分类Dev

tf.nn.lrn()方法有什么作用?

来自分类Dev

tf.nn.max_pool的ksize参数用于什么?

来自分类Dev

Tensorflow:tf.nn.separable_conv2d做什么?

来自分类Dev

“使用strategy.scope():”或“使用tf.distribute.experimental.TPUStrategy(tpu).scope():”对创建NN有什么作用?

来自分类Dev

如何在Tensorflow中将embedding_lookup与一批不同长度的序列一起使用?

来自分类Dev

如何正确使用tf.nn.max_pool_with_argmax

来自分类Dev

在Google Cloud Datalab中使用时,tf.nn.dynamic_rnn()返回错误

来自分类Dev

最大使用“ tf.nn.avg_pool”在张量流中合并单个图像

来自分类Dev

如何在Tensorflow Keras中使用tf.nn.sampled_softmax_loss?

来自分类Dev

tf.nn.conv2d如何使用偶数大小的过滤器?

来自分类Dev

如何在使用 tf.nn.softmax 计算 softmax 期间避免填充索引?

来自分类Dev

在不同形状的向量集合上使用 tf.nn.l2_loss

来自分类Dev

TensorFlow中的tf.nn.sigmoid实现

来自分类Dev

什么时候以及为什么使用tf.reduce_mean?

来自分类Dev

将Torch.nn.Embedding用于GloVe:我们应该微调嵌入还是直接使用它们?

来自分类Dev

为什么使用tf.keras进行推理要比使用TFLite慢75倍?

来自分类Dev

为什么将余弦相似度和TF-IDF一起使用?

来自分类Dev

为什么使用tf.py_function的模型无法序列化?

来自分类Dev

为什么不能使用别名导入?例如:`来自tf import keras`

来自分类Dev

为什么在计算逻辑回归的准确性时使用“ tf.reduce_mean”?

来自分类Dev

OpenAI 基线:为什么同时使用 `tf.stop_gradient` 并指定 `var_list`?

来自分类Dev

PyBrain:为什么PyBrain NN不学习对XOR进行分类?

来自分类Dev

为什么我的 TensorFlow NN 模型的预测值有上限?

来自分类Dev

tf.nn.space_to_depth是否有等效的PyTorch函数

来自分类Dev

导入tf.nn.rnn_cell中的Tensorflow错误

Related 相关文章

  1. 1

    为什么tf.nn.embedding_lookup使用嵌入列表?

  2. 2

    如何在TensorFlow中使用tf.nn.embedding_lookup_sparse?

  3. 3

    tf.nn.embedding_lookup_sparse 3D稀疏张量输入

  4. 4

    Tensorflow embedding_lookup

  5. 5

    tf.nn.lrn()方法有什么作用?

  6. 6

    tf.nn.max_pool的ksize参数用于什么?

  7. 7

    Tensorflow:tf.nn.separable_conv2d做什么?

  8. 8

    “使用strategy.scope():”或“使用tf.distribute.experimental.TPUStrategy(tpu).scope():”对创建NN有什么作用?

  9. 9

    如何在Tensorflow中将embedding_lookup与一批不同长度的序列一起使用?

  10. 10

    如何正确使用tf.nn.max_pool_with_argmax

  11. 11

    在Google Cloud Datalab中使用时,tf.nn.dynamic_rnn()返回错误

  12. 12

    最大使用“ tf.nn.avg_pool”在张量流中合并单个图像

  13. 13

    如何在Tensorflow Keras中使用tf.nn.sampled_softmax_loss?

  14. 14

    tf.nn.conv2d如何使用偶数大小的过滤器?

  15. 15

    如何在使用 tf.nn.softmax 计算 softmax 期间避免填充索引?

  16. 16

    在不同形状的向量集合上使用 tf.nn.l2_loss

  17. 17

    TensorFlow中的tf.nn.sigmoid实现

  18. 18

    什么时候以及为什么使用tf.reduce_mean?

  19. 19

    将Torch.nn.Embedding用于GloVe:我们应该微调嵌入还是直接使用它们?

  20. 20

    为什么使用tf.keras进行推理要比使用TFLite慢75倍?

  21. 21

    为什么将余弦相似度和TF-IDF一起使用?

  22. 22

    为什么使用tf.py_function的模型无法序列化?

  23. 23

    为什么不能使用别名导入?例如:`来自tf import keras`

  24. 24

    为什么在计算逻辑回归的准确性时使用“ tf.reduce_mean”?

  25. 25

    OpenAI 基线:为什么同时使用 `tf.stop_gradient` 并指定 `var_list`?

  26. 26

    PyBrain:为什么PyBrain NN不学习对XOR进行分类?

  27. 27

    为什么我的 TensorFlow NN 模型的预测值有上限?

  28. 28

    tf.nn.space_to_depth是否有等效的PyTorch函数

  29. 29

    导入tf.nn.rnn_cell中的Tensorflow错误

热门标签

归档