浩的博客
04
27
26
25
24
Transformer学习笔记总结 Transformer学习笔记总结
每个单词被嵌入到大小为512的向量中 编码器接受一个向量列表作为输入,首先将这些向量传到自注意力层,然后传递到前馈神经网络 多头注意力下没个头维护不同的qkv,从而得到不同的qkv,所以最终将的到八个不同的z矩阵 前馈全连接层需要的是一个
2021-04-24
23
23
fasttext使用教程 fasttext使用教程
第一章:fasttext工具的使用1.1 认识fasttext工具 学习目标 了解fasttext工具的作用. 了解fasttext工具的优势及其原因. 掌握fasttext的安装方法. 作为NLP工程领域常用的工具包, fast
2021-04-23
23
fasttext迁移学习 fasttext迁移学习
2.1 迁移学习理论 学习目标 了解迁移学习中的有关概念. 掌握迁移学习的两种迁移方式. 迁移学习中的有关概念: 预训练模型 微调 微调脚本 预训练模型(Pretrained model): 一般情况下预训练模型都是大型模型
2021-04-23
22
hexo+matery搭建个人博客踩坑记录 hexo+matery搭建个人博客踩坑记录
​ 本次hexo个人博客的搭建参考了大佬洪卫的博客,内容很全,但是在实际搭建中还是遇到了一些坑,这里对这些问题与解决方法进行记录。 一,代码块中行号与代码分离问题​ 被这个问题困住了好久,始终不知道问题出现在哪里
2021-04-22
22
19
1 / 2