浩的博客
人工智能网站大全 人工智能网站大全
转载于https://github.com/howie6879/mlhub123 新闻资讯 Analytics Vidhya: 为数据科学专业人员提供基于社区的知识门户 Distill: 展示机器学习的最新文章 Google News: G
2021-04-25
Transformer学习笔记总结 Transformer学习笔记总结
每个单词被嵌入到大小为512的向量中 编码器接受一个向量列表作为输入,首先将这些向量传到自注意力层,然后传递到前馈神经网络 多头注意力下没个头维护不同的qkv,从而得到不同的qkv,所以最终将的到八个不同的z矩阵 前馈全连接层需要的是一个
2021-04-24
BERT,Transformer模型架构与详解 BERT,Transformer模型架构与详解
1. BERT,Transformer的模型架构与详解1.1 认识BERT 学习目标 了解什么是BERT. 掌握BERT的架构. 掌握BERT的预训练任务. 什么是BERT BERT是2018年10月由Google AI研究院提出的一种
2021-04-23
fasttext使用教程 fasttext使用教程
第一章:fasttext工具的使用1.1 认识fasttext工具 学习目标 了解fasttext工具的作用. 了解fasttext工具的优势及其原因. 掌握fasttext的安装方法. 作为NLP工程领域常用的工具包, fast
2021-04-23
fasttext迁移学习 fasttext迁移学习
2.1 迁移学习理论 学习目标 了解迁移学习中的有关概念. 掌握迁移学习的两种迁移方式. 迁移学习中的有关概念: 预训练模型 微调 微调脚本 预训练模型(Pretrained model): 一般情况下预训练模型都是大型模型
2021-04-23
hexo+matery搭建个人博客踩坑记录 hexo+matery搭建个人博客踩坑记录
​ 本次hexo个人博客的搭建参考了大佬洪卫的博客,内容很全,但是在实际搭建中还是遇到了一些坑,这里对这些问题与解决方法进行记录。 一,代码块中行号与代码分离问题​ 被这个问题困住了好久,始终不知道问题出现在哪里
2021-04-22
Markdown-使用方式汇总 Markdown-使用方式汇总
Markdown使用方法总结一,为文本加入颜色元素 方法一 ​ 使用格式 $\textcolor{下面的颜色名称}{文本} 方法二 ​ 使用格式 <span style='color:文字颜色;b
2021-04-22
Transformer(上) 背景介绍 Transformer(上) 背景介绍
Transformer(上) 背景介绍论文地址:https://arxiv.org/pdf/1810.04805.pdf 一,Transformer相关背景 2018年10月,Google发出一篇论文《BERT: Pre-training
2021-04-19
jupyter Notebook高级-魔法命令 jupyter Notebook高级-魔法命令
jupyter Notebook高级-魔法命令一,%run魔法命令 该命令可以实现跨模块运行以及导入 %run myscript/hello.py hello("iMooc") 运行模块 import mymodule.Fi
pytorch使用GPU运行以及优化方式 pytorch使用GPU运行以及优化方式
pytorch使用GPU运行以及优化方式Pytorch使用GPU单卡训练 1 GPU训练常用代码 查看是否本机有cuda可用 device = torch.device("cuda:0" if torch.cuda.is_ava
2021-04-01
2 / 3