论文
【论文】General Language Model Pretraining with Autoregressive Blank Infilling
https://arxiv.org/pdf/2103.10360.pdf 1.动机 – 阅读更多…
论文
【论文】DeepNet: Scaling Transformers to 1,000 Layers
http://arxiv.org/abs/2203.00555 1.动机 我们知道transform 阅读更多…
论文
【论文】BLOOM: A 176B-Parameter Open-Access Multilingual Language Model
1.动机 – 2.数据集 BLOOM使用ROOTS数据集进行训练,BLOOMZ在BLOO 阅读更多…
论文
【论文】Self-Instruct: Aligning Language Model with Self Generated Instructions
论文解读仅代表个人观点,才疏学浅,如有错误欢迎指正,未经授权禁止转载。 论文地址:http://ar 阅读更多…