浩的博客
TextCNN模型架构与详解 TextCNN模型架构与详解
TextCNN Yoon Kim在论文(2014 EMNLP) Convolutional Neural Networks for Sentence Classification提出TextCNN。将卷积神经网络CNN应用到文本分类任务,利
2021-07-21
BERT模型架构与详解 BERT模型架构与详解
BERT1. 简介​ 全称BERT 全名为 Bidirectional Encoder Representations from Transformers,是 Google 以无监督的方式利用大量无标注文本训练的语言代表模型,
2021-07-21
Transformer(下)经典案例 Transformer(下)经典案例
Transformer(下)经典案例3.1 使用Transformer构建语言模型 学习目标 了解有关语言模型的知识. 掌握使用Transformer构建语言模型的实现过程. 什么是语言模型: 以一个符合语言规律的序列为输入,模型将利
2021-05-08
Transformer(中)架构解析 Transformer(中)架构解析
Transformer(中)架构解析2.1 认识Transformer架构 学习目标 了解Transformer模型的作用. 了解Transformer总体架构图中各个组成部分的名称. Transformer模型的作用 基于seq2se
2021-04-27
HMM与CRF经典序列模型 HMM与CRF经典序列模型
HMM与CRF认识HMM与CRF模型 HMM模型的输入和输出 HMM(Hidden Markov Model), 中文称作隐含马尔科夫模型, 因俄国数学家马尔可夫而得名. 它一般以文本序列数据为输入, 以该序列对应的隐含序列为输出.
2021-04-26
BERT,Transformer模型架构与详解 BERT,Transformer模型架构与详解
1. BERT,Transformer的模型架构与详解1.1 认识BERT 学习目标 了解什么是BERT. 掌握BERT的架构. 掌握BERT的预训练任务. 什么是BERT BERT是2018年10月由Google AI研究院提出的一种
2021-04-23
fasttext使用教程 fasttext使用教程
第一章:fasttext工具的使用1.1 认识fasttext工具 学习目标 了解fasttext工具的作用. 了解fasttext工具的优势及其原因. 掌握fasttext的安装方法. 作为NLP工程领域常用的工具包, fast
2021-04-23
fasttext迁移学习 fasttext迁移学习
2.1 迁移学习理论 学习目标 了解迁移学习中的有关概念. 掌握迁移学习的两种迁移方式. 迁移学习中的有关概念: 预训练模型 微调 微调脚本 预训练模型(Pretrained model): 一般情况下预训练模型都是大型模型
2021-04-23
Transformer(上) 背景介绍 Transformer(上) 背景介绍
Transformer(上) 背景介绍论文地址:https://arxiv.org/pdf/1810.04805.pdf 一,Transformer相关背景 2018年10月,Google发出一篇论文《BERT: Pre-training
2021-04-19