一. 文本预处理

1. 文本预处理

对于序列数据处理问题,上篇文章:李沐动手学深度学习V2-序列模型和代码实现评估了所需的统计工具和预测时面临的挑战,这样的数据存在许多种形式,文本是最常见例子之一。 例如一篇文章可以被简单地看作是一串单词序列,甚至是一串字符序列。文本的常见预处理步骤:

  1. 将文本作为字符串加载到内存中。
  2. 将字符串拆分为词元(如单词和字符)。
  3. 建立一个词表,将拆分的词元映射到数字索引。
  4. 将文本转换为数字索引序列,方便模型操作,进入模型训练。

2. 读取数据集

首先从H.G.Well的时光机器中加载文本。这是一个相当小的语料库,只有30000多个单词,而现实中的文档集合可能会包含数十亿个单词。下面的函数将数据集读取到由多条文本行组成的列表中,其中每条文本行都是一个字符串,为简单起见,在这里忽略了标点符号和字母大写。

import torch
import d2l.torch
import re
import collections
d2l.torch.DATA_HUB['time_machine'] = (d2l.torch.DATA_URL + 'timemachine.txt','090b5e7e70c295757f55df93cb0a180b9691891a')
"""将时间机器数据集加载到文本行的列表中"""
def read_time_machine():with open(d2l.torch.download('time_machine'),'r') as f:lines = f.readlines()#lines为list列表,每个元素代表读取的每一行文本print(lines[0])print(lines[10])#将每一行文本中有关符号的字符都替换为空格字符,同时去掉每一行首尾的空格,将字符变为小写字符return [re.sub('[^A-Za-z]+',' ',line).strip().lower() for line in lines] #返回结果为list列表,每个元素代表读取的每一行文本
lines = read_time_machine()
print('文本行数:',len(lines))
print(lines[0])
print(lines[10])

3. 词元化

下面的tokenize() 函数将文本行列表(lines)作为输入, 列表中的每个元素是一个文本序列(如一条文本行),每个文本序列又被拆分成一个词元列表,词元(token)是文本的基本单位。 最后返回一个由词元列表组成的列表,其中的每个词元都是一个字符串(string),如下图所示。

"""将文本行拆分为单词或字符词元"""
def tokenize(lines,type='word'):if type == 'word':#将每一行文本文字以空格分开,列表中的元素是一个词,返回类型是一个list of list,也即是:'''[['the', 'time', 'machine', 'by', 'h', 'g', 'wells'],['the', 'time', 'traveller', 'for', 'so', 'ithhhh']]'''return [line.split() for line in lines]elif type == 'char':#将每行文本转换成一个含字符的列表,返回类型是一个list of list,列表中每一个元素是一个字符,也即是:'''[['t', 'h', 'e', ' ', 't', 'i', 'm', 'e', ' ', 'm'],['t', 'h', 'e', ' ', 't', 'i', 'm', 'e', ' ', 't']]'''return [list(line) for line in lines]else:print('未知类型:',type)
tokens = tokenize(lines,'word') #tokens为list of list类型
for i in range(10):print(tokens[i])

4. 词表

词元的类型是字符串,而模型需要的输入是数字,因此这种类型不方便模型使用。构建一个字典,通常也叫做词表(vocabulary),用来将字符串类型的词元映射到从000开始的数字索引中。先将训练集中的所有文档合并在一起,对它们的唯一词元进行统计,得到的统计结果称之为语料(corpus),然后根据每个唯一词元的出现频率,为其分配一个数字索引,很少出现的词元通常被移除,可以降低复杂性。另外,语料库中不存在或已删除的任何词元都将映射到一个特定的未知词元“<unk>”,可以选择增加一个列表,用于保存那些被保留的词元,例如:填充词元(“<pad>”);
序列开始词元(“<bos>”);序列结束词元(“<eos>”)。

class Vocab:def __init__(self,tokens=None,min_freq=0,reserve_tokens=None):if tokens == None:tokens = []if reserve_tokens == None:reserve_tokens = []# 按出现频率排序counter_corpus = count_corpus(tokens)#计算每个不同字符出现的次数self._token_freqs = sorted(counter_corpus.items(),key=lambda x:x[1],reverse=True)#根据字符出现的次数进行排序,从而映射成对应的id,类型为一个列表,列表元素是一个二元组,列表元素已经排好序# 未知词元的索引为0self.idx_to_token = ['<unk>']+reserve_tokens #idx_to_token为一个列表类型self.token_to_idx = {token:idxfor idx,token in enumerate(self.idx_to_token)} #token_to_idx为一个字典类型for token,freq in self._token_freqs:if freq<min_freq:break #因为_token_freqs根据freqs已经是排好序了,如果出现freq小于min_freq,那么后面所有元素的freq都会小于min_freq,因此使用break终止循环if token not in self.token_to_idx:self.idx_to_token.append(token)self.token_to_idx[token] = len(self.idx_to_token)-1# #将10行到17行代码重新改写一下# for token,freq in self._token_freqs:#     if freq<min_freq:#         break#     self.idx_to_token.append(token)# self.token_to_idx = {token:idx#                      for idx,token in enumerate(self.idx_to_token)}def __len__(self):return len(self.idx_to_token)def __getitem__(self, tokens):if not isinstance(tokens,(list,tuple)):return self.token_to_idx.get(tokens,self.unk)return [self.__getitem__(token) for token in tokens]#使用递归根据token得到idx,因为tokens有可能为list of list类型def to_token(self,indices):if not isinstance(indices,(list,tuple)):return self.idx_to_token[indices]return [self.idx_to_token[index] for index in indices]#个人应该写成return [self.to_token(index) for index in indices],因为indices有可能为list of list类型@propertydef unk(self):return 0 # 未知词元的索引为0@propertydef token_freqs(self):return self._token_freqs
"""统计词元的频率"""
def count_corpus(tokens):# 这里的tokens可能是1D列表或2D列表if len(tokens)==0 or isinstance(tokens[0],list):# 将list of list类型的词元列表展平成一个列表tokens = [token for line in tokens for token in line]return collections.Counter(tokens) #返回一个列表,列表元素是一个(token词,freq在文本中出现的频率)二元组

首先使用时光机器数据集作为语料库来构建词表,然后打印前几个高频词元及其索引。

vocab = Vocab(tokens)
print(list(vocab.token_to_idx.items())[:10])
'''
输出结果:
[('<unk>', 0), ('the', 1), ('i', 2), ('and', 3), ('of', 4), ('a', 5), ('to', 6), ('was', 7), ('in', 8), ('that', 9)]
'''

将每一条文本行转换成一个数字索引列表:

for i in [0,10]:print(tokens[i])print(vocab[tokens[i]])#相当于调用了vocab.__getitem(tokens[i])__函数
'''
输出结果如下:
['the', 'time', 'machine', 'by', 'h', 'g', 'wells']
[1, 19, 50, 40, 2183, 2184, 400]
['twinkled', 'and', 'his', 'usually', 'pale', 'face', 'was', 'flushed', 'and', 'animated', 'the']
[2186, 3, 25, 1044, 362, 113, 7, 1421, 3, 1045, 1]
'''

5. 整合上面所有函数

在使用上述函数时,将所有功能打包到load_corpus_time_machine()函数中,该函数返回corpus(词元索引列表)和vocab(时光机器语料库的词表)(一个Vocab类,里面实现了把文本词元转换成数字索引,以及把数字索引转换成文本词元等功能),corpus也即是把给定的文本转换成对应的数字id,从而用于训练,vocab类包含了如何将一个文本字符映射成对应的数字id(根据字符出现的次数排序来映射对应的id),以及如何将一个id映射回一个字符等操作
下面所做的改变是:

  1. 使用字符(而不是单词)实现文本词元化;
  2. 时光机器数据集中的每个文本行不一定是一个句子或一个段落,还可能是一个单词,因此返回的corpus仅处理为单个列表,而不是使用多词元列表构成的一个列表。
"""返回时光机器数据集的词元索引列表和词表"""
def load_corpus_time_machine(max_tokens=-1):lines = read_time_machine() #lines为一个list类型,里面每个元素为一行文本句子#使用字符(而不是单词)实现文本词元化tokens = tokenize(lines,type='char')#tokens为list of listvocab = Vocab(tokens)# 因为时光机器数据集中的每个文本行不一定是一个句子或一个段落,所以将所有文本行展平到一个列表中corpus = [vocab[token] for line in tokens for token in line]#print(corpus)if max_tokens>0:corpus = corpus[:max_tokens]return corpus,vocab
corpus,vocab = load_corpus_time_machine()#corpus也即是把给定的文本转换成对应的数字id,从而用于训练,vocab类包含了如何将一个文本字符映射成对应的数字id(根据字符出现的次数排序来映射对应的id),以及如何将一个id映射回一个字符等操作
len(corpus),len(vocab) #len(vocab)调用的是vocab中__len()__函数

6. 小结

  • 文本是序列数据的一种最常见的形式之一。
  • 为了对文本进行预处理,通常将文本拆分为词元,构建词表将词元(可以为一个单词或一个字符)映射为数字索引,并将文本数据转换为词元索引以供模型操作。

7. 全部代码

import torch
import d2l.torch
import re
import collectionsd2l.torch.DATA_HUB['time_machine'] = (d2l.torch.DATA_URL + 'timemachine.txt','090b5e7e70c295757f55df93cb0a180b9691891a')
"""将时间机器数据集加载到文本行的列表中"""def read_time_machine():with open(d2l.torch.download('time_machine'), 'r') as f:lines = f.readlines()  #lines为list列表,每个元素代表读取的每一行文本print(lines[0])print(lines[10])#将每一行文本中有关符号的字符都替换为空格字符,同时去掉每一行首尾的空格,将字符变为小写字符return [re.sub('[^A-Za-z]+', ' ', line).strip().lower() for line in lines]  #返回结果为list列表,每个元素代表读取的每一行文本lines = read_time_machine()
print('文本行数:', len(lines))
print(lines[0])
print(lines[10])
"""将文本行拆分为单词或字符词元"""def tokenize(lines, type='word'):if type == 'word':#将每一行文本文字以空格分开,列表中的元素是一个词,返回类型是一个list of list,也即是:'''[['the', 'time', 'machine', 'by', 'h', 'g', 'wells'],['the', 'time', 'traveller', 'for', 'so', 'ithhhh']]'''return [line.split() for line in lines]elif type == 'char':#将每行文本转换成一个含字符的列表,返回类型是一个list of list,列表中每一个元素是一个字符,也即是:'''[['t', 'h', 'e', ' ', 't', 'i', 'm', 'e', ' ', 'm'],['t', 'h', 'e', ' ', 't', 'i', 'm', 'e', ' ', 't']]'''return [list(line) for line in lines]else:print('未知类型:', type)tokens = tokenize(lines, 'word')  #tokens为list of list类型
for i in range(10):print(tokens[i])class Vocab:def __init__(self, tokens=None, min_freq=0, reserve_tokens=None):if tokens == None:tokens = []if reserve_tokens == None:reserve_tokens = []# 按出现频率排序counter_corpus = count_corpus(tokens)  #计算每个不同字符出现的次数self._token_freqs = sorted(counter_corpus.items(), key=lambda x: x[1],reverse=True)  #根据字符出现的次数进行排序,从而映射成对应的id,类型为一个列表,列表元素是一个二元组,列表元素已经排好序# 未知词元的索引为0self.idx_to_token = ['<unk>'] + reserve_tokens  #idx_to_token为一个列表类型self.token_to_idx = {token: idxfor idx, token in enumerate(self.idx_to_token)}  #token_to_idx为一个字典类型for token, freq in self._token_freqs:if freq < min_freq:break  #因为_token_freqs根据freqs已经是排好序了,如果出现freq小于min_freq,那么后面所有元素的freq都会小于min_freq,因此使用break终止循环if token not in self.token_to_idx:self.idx_to_token.append(token)self.token_to_idx[token] = len(self.idx_to_token) - 1# #将10行到17行代码重新改写一下# for token,freq in self._token_freqs:#     if freq<min_freq:#         break#     self.idx_to_token.append(token)# self.token_to_idx = {token:idx#                      for idx,token in enumerate(self.idx_to_token)}def __len__(self):return len(self.idx_to_token)def __getitem__(self, tokens):if not isinstance(tokens, (list, tuple)):return self.token_to_idx.get(tokens, self.unk)return [self.__getitem__(token) for token in tokens]  #使用递归根据token得到idx,因为tokens有可能为list of list类型def to_token(self, indices):if not isinstance(indices, (list, tuple)):return self.idx_to_token[indices]return [self.idx_to_token[index] for index inindices]  #个人应该写成return [self.to_token(index) for index in indices],因为indices有可能为list of list类型@propertydef unk(self):return 0  # 未知词元的索引为0@propertydef token_freqs(self):return self._token_freqs"""统计词元的频率"""def count_corpus(tokens):# 这里的tokens可能是1D列表或2D列表if len(tokens) == 0 or isinstance(tokens[0], list):# 将list of list类型的词元列表展平成一个列表tokens = [token for line in tokens for token in line]return collections.Counter(tokens)  #返回一个列表,列表元素是一个(token词,freq在文本中出现的频率)二元组vocab = Vocab(tokens)
print(list(vocab.token_to_idx.items())[:10])
for i in [0, 10]:print(tokens[i])print(vocab[tokens[i]])  #相当于调用了vocab.__getitem(tokens[i])__函数
"""返回时光机器数据集的词元索引列表和词表"""def load_corpus_time_machine(max_tokens=-1):lines = read_time_machine()  #lines为一个list类型,里面每个元素为一行文本句子#使用字符(而不是单词)实现文本词元化tokens = tokenize(lines, type='char')  #tokens为list of listvocab = Vocab(tokens)# 因为时光机器数据集中的每个文本行不一定是一个句子或一个段落,所以将所有文本行展平到一个列表中corpus = [vocab[token] for line in tokens for token in line]#print(corpus)if max_tokens > 0:corpus = corpus[:max_tokens]return corpus, vocabcorpus, vocab = load_corpus_time_machine()  #corpus也即是把给定的文本转换成对应的数字id,从而用于训练,vocab类包含了如何将一个文本字符映射成对应的数字id(根据字符出现的次数排序来映射对应的id),以及如何将一个id映射回一个字符等操作
len(corpus), len(vocab)  #len(vocab)调用的是vocab中__len()__函数

8. 链接

循环神经网络RNN第一篇:李沐动手学深度学习V2-NLP序列模型和代码实现
循环神经网络RNN第二篇:李沐动手学深度学习V2-NLP文本预处理和代码实现
循环神经网络RNN第三篇:李沐动手学深度学习V2-NLP语言模型、数据集加载和数据迭代器实现以及代码实现
循环神经网络RNN第四篇:李沐动手学深度学习V2-RNN原理
循环神经网络RNN第五篇:李沐动手学深度学习V2-RNN循环神经网络从零实现
循环神经网络RNN第六篇:李沐动手学深度学习V2-使用Pytorch框架实现RNN循环神经网络
循环神经网络GRU第七篇:李沐动手学深度学习V2-GRU门控循环单元以及代码实现
循环神经网络LSTM第八篇:李沐动手学深度学习V2-LSTM长短期记忆网络以及代码实现
深度循环神经网络第九篇:李沐动手学深度学习V2-深度循环神经网络和代码实现
双向循环神经网络第十篇:李沐动手学深度学习V2-双向循环神经网络Bidirectional RNN和代码实现

李沐动手学深度学习V2-NLP文本预处理和代码实现相关推荐

  1. 李沐动手学深度学习v2/总结1

    总结 编码过程 数据 数据预处理 模型 参数,初始化参数 超参数 损失函数,先计算损失,清空梯度(防止有累积的梯度),再对损失后向传播计算损失关于参数的梯度 优化算法,使用优化算法更新参数 训练求参数 ...

  2. 李沐动手学深度学习V2-全卷积网络FCN和代码实现

    一.全卷积网络FCN 1. 介绍 语义分割是对图像中的每个像素分类,全卷积网络(fully convolutional network,FCN)采用卷积神经网络实现了从图像像素到像素类别的变换 ,与前 ...

  3. 14李沐动手学深度学习v2/权重衰退简洁实现

    # 权重衰退是广泛应用的正则化技术 %matplotlib inline import torch from torch import nn from d2l import torch as d2l ...

  4. 李沐动手学深度学习V2-图像增广和代码实现

    图像增广 大型数据集是成功应用深度神经网络的先决条件,因为解决了大型复杂网络的过拟合性. 图像增广在对训练图像进行一系列的随机变化之后,生成相似但不同的训练样本,从而扩大了训练集的规模. 此外,应用图 ...

  5. 李沐动手学深度学习(pytorch版本)d2lzh_pytorch包的缺少安装问题

    学习深度学习时候,很多人参考的是李沐的动手学深度学习Pytorch版本(附上官方地址:https://tangshusen.me/Dive-into-DL-PyTorch/#/). 在学习3.5.1节 ...

  6. 【李沐动手学深度学习】读书笔记 01前言

    虽然之前已经学过这部分内容和深度学习中的基础知识,但总觉得学的不够系统扎实,所以希望再通过沐神的课程以及书籍,系统条理的学习一遍.在读书过程中,利用导图做了一下梳理,形成了这个读书笔记.如有侵权,请联 ...

  7. 关于李沐动手学深度学习(d2l)pytorch环境本地配置

    本地安装d2l 由于之前试了很多次d2l课本的安装方法失败了,这里提供一种我可以成功安装d2l包的方法. pytorch安装 首先安装cuda.cudnn.pytroch(gpu版本).可以参考这篇文 ...

  8. 李沐动手学深度学习:08 线性回归(代码逐行理解)

    目录 一.相关资料连接 1.1 李沐视频 1.2 代码.PPT 二.代码及笔记(使用Jupyter Notebook) 2.1 线性回归从零开始实现 2.1.1 基本概念 2.1.2 基础优化算法 2 ...

  9. windows上配置深度学习(李沐-动手学深度学习)

    1.安装miniconda windows下安装,去清华大学开源镜像下载,速度比较快. 选中Miniconda3-latest-Windos-x86_64.exe下载安装包(目前最新的是py3.9) ...

  10. 李沐动手学深度学习第四章-4.9.环境和分布偏移

    我们从来没有想过数据最初从哪里来?以及我们计划最终如何处理模型的输出? 根据测试集的精度衡量,模型表现得非常出色. 但是当数据分布突然改变时,模型在部署中会出现灾难性的失败. 解决方案很简单(要求&q ...

最新文章

  1. Linux扫盲篇:CentOS、Ubuntu、Gento
  2. RAC数据库恢复到单实例数据库
  3. tomcat端口冲突解决 Address already in use: JVM_Bind :8080
  4. adf4351使用_ADF:将UI类别与动态表单一起使用
  5. MTK 驱动(62)---eMMC RPMB分区介绍
  6. stm32f407 6路串口dma如何配置_stm32cubeMX学习十、扫码模块程序开发(基于正点原子STM32F407开发板)...
  7. xt5 连接android auto,2021年凯迪拉克XT6将添加无线Apple CarPlay和Android Auto
  8. ArcGIS实现全国人口普查数据可视化以及热力图
  9. 四川省中小学计算机台球标准,《四川省中小学教育技术装备标准》.xls
  10. css中button宽高大小不包含boder问题和文字不居中问题
  11. wordpress网站被黑后怎么解决
  12. Kafka 消费者模块(三):rebalance的发送JoinGroupResult请求
  13. 聚观早报 | Apple Music推出新功能;苹果汽车最早于2026年发布
  14. ubuntu下常用软件下载安装
  15. 【算法竞赛进阶指南】CH5202 自然数拆分Lunatic版 完全背包
  16. 2020 年 12 月编程语言排行榜
  17. mongo地理坐标计算距离
  18. Maven入门 (IDEA环境下的使用在第十三部分)
  19. Python_冰雹猜想
  20. 一个简单的HTML网页(千与千寻电影) 大二学生网页设计与制作 电影主题网页制作

热门文章

  1. 计算机休眠后无法连接无线网络,笔记本Win7系统唤醒休眠模式后无线无法自动连接怎么办...
  2. 【图解CAN总线】-6-classic CAN 2.0总线网络“负载率”计算
  3. 为什么最近iOS开发岗位那么多(第一篇)
  4. redis基本命令和help使用
  5. 四川跃恒云启网络科技有限公司:拼多多推广花费高怎么调整
  6. CTF题库-实验吧(密码学)之综合篇
  7. 一山一世界,雅居乐陈卓林“乐活”美好生活,在此进阶
  8. the owning Session was closed
  9. 苹果app退款_app退款理由写什么好?苹果退款理由怎么写才好?
  10. 离散数学-数理逻辑知识整理(修改版)