Sniper
  • 首页
  • github
  • 我的简历

笔记

深度学习笔记

【深度学习笔记】为什么transformer(Bert)的多头注意力要对每一个head进行降维?

这里我们以Bert的12头注意力进行举例。 我们都知道,bert采用了12头注意力,同时每一个注意力 阅读更多…

由admin,2年 前
深度学习笔记

【深度学习笔记】ECISA-2021总结

最近打了一个比赛,算是第一次比较认真系统的打比赛,搞了两个月,最后A榜第一,B榜第四,也算还行,写个 阅读更多…

由admin,2年 前
Bert 深度学习笔记

【深度学习笔记】Bert相关知识点问答汇总

本文只代表自己的观点。如有错误或者其他问题,欢迎批评指正。 1. 为什么BERT在第一句前会加一个[ 阅读更多…

由admin,2年 前
深度学习笔记

【深度学习笔记】R-drop

目前大家对于提升bert的能力大体上可以分为几个方向。 一个是在embedding上添加扰动(比如C 阅读更多…

由admin,2年 前
深度学习基础 深度学习笔记

【深度学习笔记】熵 KL散度与交叉熵

首先用一句话进行总结:KL散度可以被用于计算代价,而在特定情况下最小化KL散度等价于最小化交叉熵。而 阅读更多…

由admin,2年 前
深度学习基础 深度学习笔记

【深度学习笔记】batch size与learning rate的选择

学习率的选择 首先是学习率,不要太高,不要太低,高了学不到东西,低了学习的慢。 到这里仿佛什么都没有 阅读更多…

由admin,2年 前
深度学习基础 深度学习笔记

【深度学习笔记】优化器集合

今天面试被虐了,回来补一下知识。 1.(随机)梯度下降 /( random )gradient de 阅读更多…

由admin,2年 前
深度学习笔记

【深度学习笔记】self-attention(Synthesizer)

既然已经有了【深度学习笔记】Attention和self Attention的联系和区别,为什么这里 阅读更多…

由admin,2年 前
深度学习基础 深度学习笔记

【深度学习笔记】激活函数集合

本篇写一些对激活函数的一些理解。如果有错误欢迎各位大佬指出。 首先是损失函数的一般要求: 非线性。非 阅读更多…

由admin,2年 前
深度学习基础 深度学习笔记

【深度学习笔记】ReLU以及其他激活函数的思考

最近在研究激活函数,有一些问题与思考在这里写下来,如果有不对的欢迎各位大佬指正。 在研究激活函数的时 阅读更多…

由admin,2年 前

文章导航

1 2 3 下一页
分类
  • QQ红包的呓语 (2)
  • 其他资料 (7)
    • idea快捷键整理 (1)
    • others (6)
  • 学习笔记 (276)
    • JAVA SE (1)
    • Java虚拟机 (4)
    • JSP (8)
    • Python (27)
    • Ubuntu (2)
    • 云计算:概念,技术与架构 (9)
    • 机器学习实战 (11)
    • 深度学习 (72)
      • Bert (9)
      • transformers (7)
      • 动手学深度学习 (4)
      • 对话系统 (8)
      • 深度学习基础 (12)
      • 深度学习笔记 (28)
      • 翻译搬运 (5)
      • 自然语言处理基础 (3)
      • 论文 (9)
    • 算法 (91)
    • 算法分析与设计 (20)
    • 网络爬虫实战 (24)
    • 设计模式 (16)
近期文章
  • 【ICLR 2022】MULTITASK PROMPTED TRAINING ENABLES ZERO-SHOT TASK GENERALIZATION
  • 【深度学习笔记】keras中Layer、Node与Tensor之间的关系
  • 【深度学习笔记】Seq2Seq中的曝光偏差(exposure bias)现象
  • 【Python】python内置函数与装饰器汇总
  • 【ACL 2022】SalesBot: Transitioning from Chit-Chat to Task-Oriented Dialogues

attention bert transformer 基础 比赛 汇总 深度学习 爬虫 笔记 翻译搬运 论文 面试


如果哪里有不同见解或者有不懂的可以在文章下评论或email我,我会第一时间联系。

  • 首页
  • github
  • 我的简历
Sniper | 辽ICP备18006775号