query padding mask and key padding mask in Transformer encoder

后端 未结 0 1680
旧巷少年郎
旧巷少年郎 2020-12-12 15:50

I\'m implementing self-attention part in transformer encoder using pytorch nn.MultiheadAttention and confusing in the padding masking of transformer.

The

相关标签:
回答
  • 消灭零回复
提交回复
热议问题