attention_mask的用处
attention_mask:避免用注意力机制的时候关注到填充符(翻译可能不准,大致这个意思)
参考链接:https://huggingface.co/transformers/model_doc/bert.html?highlight=tfbertmodel%20from_pretrained#tfbertmodel
attention_mask:避免用注意力机制的时候关注到填充符(翻译可能不准,大致这个意思)
参考链接:https://huggingface.co/transformers/model_doc/bert.html?highlight=tfbertmodel%20from_pretrained#tfbertmodel