Sniper
  • 首页
  • github
  • 我的简历

attention

深度学习笔记

【深度学习笔记】为什么transformer(Bert)的多头注意力要对每一个head进行降维?

这里我们以Bert的12头注意力进行举例。 我们都知道,bert采用了12头注意力,同时每一个注意力 阅读更多…

由admin,2年 前
深度学习基础 深度学习笔记

【深度学习笔记】Attention和self Attention的联系和区别

什么是注意力? 当人类观察一张图片或者一段文字时,可以将重点放到某一部分,从而可以更好的处理图中或文 阅读更多…

由admin,2年 前
深度学习基础 翻译搬运

【深度学习】带注意力机制的seq2seq

Sequence-to- Sequence 模型是一个深度学习模型,它能够成功完成例如机器翻译、文本 阅读更多…

由admin,3年 前
分类
  • QQ红包的呓语 (2)
  • 其他资料 (7)
    • idea快捷键整理 (1)
    • others (6)
  • 学习笔记 (276)
    • JAVA SE (1)
    • Java虚拟机 (4)
    • JSP (8)
    • Python (27)
    • Ubuntu (2)
    • 云计算:概念,技术与架构 (9)
    • 机器学习实战 (11)
    • 深度学习 (72)
      • Bert (9)
      • transformers (7)
      • 动手学深度学习 (4)
      • 对话系统 (8)
      • 深度学习基础 (12)
      • 深度学习笔记 (28)
      • 翻译搬运 (5)
      • 自然语言处理基础 (3)
      • 论文 (9)
    • 算法 (91)
    • 算法分析与设计 (20)
    • 网络爬虫实战 (24)
    • 设计模式 (16)
近期文章
  • 【ICLR 2022】MULTITASK PROMPTED TRAINING ENABLES ZERO-SHOT TASK GENERALIZATION
  • 【深度学习笔记】keras中Layer、Node与Tensor之间的关系
  • 【深度学习笔记】Seq2Seq中的曝光偏差(exposure bias)现象
  • 【Python】python内置函数与装饰器汇总
  • 【ACL 2022】SalesBot: Transitioning from Chit-Chat to Task-Oriented Dialogues

attention bert transformer 基础 比赛 汇总 深度学习 爬虫 笔记 翻译搬运 论文 面试


如果哪里有不同见解或者有不懂的可以在文章下评论或email我,我会第一时间联系。

  • 首页
  • github
  • 我的简历
Sniper | 辽ICP备18006775号