本期目标

  • 学习使用Pandas读取赛题数据
  • 分析赛题数据的分布规律

数据读取

import pandas as pd
train_df=pd.read_csv('./train_set.csv/train_set.csv',sep='\t',nrows=100)
train_df.head()

这里的read_csv由三部分构成:

  • 读取的文件路径,这里需要根据改成你本地的路径,可以使用相对路径或绝对路径;
  • 分隔符sep,为每列分割的字符,设置为\t即可;
  • 读取行数nrows,为此次读取文件的函数,是数值类型(由于数据集比较大,建议先设置为100);
  • .head()是显示前几个数据(如下图所示),第一列为新闻的类别,第二列为新闻的字符。


数据分析

在读取完成数据集后,我们还可以对数据集进行数据分析的操作。虽然对于非结构数据并不需要做很多的数据分析,但通过数据分析还是可以找出一些规律的。

此步骤我们读取了所有的训练集数据,在此我们通过数据分析希望得出以下结论:

  • 赛题数据中,新闻文本的长度是多少?
  • 赛题数据的类别分布是怎么样的,哪些类别比较多?
  • 赛题数据中,字符分布是怎么样的?

句子长度分析

在赛题数据中每行句子的字符使用空格进行隔开,所以可以直接统计单词的个数来得到每个句子的长度。统计并如下:

首先train_df是一个dataframe对象,每一列都是series对象,apply表示应用某个函数,第一个参数为函数,此处为lambda匿名函数,第二个参数axis=0(默认),对列处理,所以该函数为对每列的值进行split变成一个list的列表,然后求lenth,即可获得,每行的单词数量

#新闻文本长度是多少??开始进行句子长度分析
#%pylab inline 的主要含义就是你画图可以显示在notebook页面上。
%pylab inline
train_df['text_len']=train_df['text'].apply(lambda x:len(x.split(' ')))
print(train_df['text_len'].describe())

输出结果如下图:

此处需要注意,把数据读取时的nrows=100去掉,因为我们要对整个数据集分析。

对新闻句子的统计可以得出,本次赛题给定的文本比较长,每个句子平均由907个字符构成,最短的句子长度为2,最长的句子长度为57921。

下图将句子长度绘制了直方图,可见大部分句子的长度都几种在2000以内。

#绘制直方图
_ =plt.hist(train_df['text_len'],bins=200)
plt.xlabel('Text char count')
plt.title("Histogram of char count")

新闻类别分布

接下来可以对数据集的类别进行分布统计,具体统计每类新闻的样本个数。

#统计每类新闻的样本个数
train_df['label'].value_counts().plot(kind='bar')
plt.title('News class count')
plt.xlabel("category")

在数据集中标签的对应的关系如下:{'科技': 0, '股票': 1, '体育': 2, '娱乐': 3, '时政': 4, '社会': 5, '教育': 6, '财经': 7, '家居': 8, '游戏': 9, '房产': 10, '时尚': 11, '彩票': 12, '星座': 13}

从统计结果可以看出,赛题的数据集类别分布存在较为不均匀的情况。在训练集中科技类新闻最多,其次是股票类新闻,最少的新闻是星座新闻。

字符分布统计

接下来可以统计每个字符出现的次数,首先可以将训练集中所有的句子进行拼接进而划分为字符,并统计每个字符的个数。

#统计每个字符出现的次数
from collections import Counter
all_lines=" ".join(list(train_df["text"]))
word_count=Counter(all_lines.split(" "))
word_count=sorted(word_count.items(),key=lambda d:d[1],reverse=True)#这个鉴于数据集较大,我就直接给出结果了
print(len(word_count))
#6869print(word_count[0])
#('3750',7482224)print(word_count[-1])
#('3133',1)

从统计结果中可以看出,在训练集中总共包括6869个字,其中编号3750的字出现的次数最多,编号3133的字出现的次数最少。

这里还可以根据字在每个句子的出现情况,反推出标点符号。下面代码统计了不同字符在句子中出现的次数,其中字符3750,字符900和字符648在20w新闻的覆盖率接近99%,很有可能是标点符号。

#统计字符在句子中出现的次数
#同样的问题,join一个list?
train_df['text_unique']=train_df['text'].apply(lambda x:' '.join(list(set(x.split(" ")))))
#join一个集合,会变成一个字符串
all_lines=' '.join(list(train_df['text_unique']))
word_count=Counter(all_lines.split(" "))
word_count=sorted(word_count.items(),key=lambda d:int(d[1]),reverse=True)print(word_count[0])
#('3750',197997)print(word_count[1])
#('900',197653)print(word_count[2])
#('648',191975)

数据分析的结论

通过上述分析我们可以得出以下结论:

  1. 赛题中每个新闻包含的字符个数平均为1000个,还有一些新闻字符较长;
  2. 赛题中新闻类别分布不均匀,科技类新闻样本量接近4w,星座类新闻样本量不到1k;
  3. 赛题总共包括7000-8000个字符;

通过数据分析,我们还可以得出以下结论:

  1. 每个新闻平均字符个数较多,可能需要截断;
  2. 由于类别不均衡,会严重影响模型的精度;

本章小结

本章对赛题数据进行读取,并新闻句子长度、类别和字符进行了可视化分析。

本章作业

  1. 假设字符3750,字符900和字符648是句子的标点符号,请分析赛题每篇新闻平均由多少个句子构成?
  2. 统计每类新闻中出现次数对多的字符

本次主要还是参考DataWhale给出的解析,自己在notebook上进行实现,明天会对这里面的一些我也疑惑的函数进行解释,同时完成本章作业。

Task02——零基础入门NLP - 新闻文本分类之数据读取与分析相关推荐

  1. Task01——零基础入门NLP - 新闻文本分类之赛题理解

    本篇目标 首先本篇文章会对赛题进行介绍以及个人对赛题的理解,带大家接触NLP的预处理.模型构建和模型训练等知识点. 赛题介绍 赛题名称:零基础入门NLP - 新闻文本分类 赛题任务:赛题以自然语言处理 ...

  2. 零基础入门NLP - 新闻文本分类

    本文是对阿里云新人竞赛中的"零基础入门NLP - 新闻文本分类"解体过程进行的记录,目前仅使用了textCNN模型进行预测,后续还会考虑使用LSTM进行对比. 赛题数据 赛题以新闻 ...

  3. 零基础入门NLP - 新闻文本分类,正式赛第一名方案分享

    零基础入门NLP - 新闻文本分类,正式赛第一名方案分享:https://mp.weixin.qq.com/s/7WpZUqdlItBToLYuRLm44g

  4. 【初学者入门】零基础入门NLP - 新闻文本分类

    序言 从今天开始入门学习NLP,虽然有点晚,但是我觉得任何时候都值得开始,尤其是面对你去感兴趣的事情.今天的任务是 [零基础入门NLP - 新闻文本分类],这是天池大赛中的入门级算法比赛,入口链接请自 ...

  5. 天池零基础入门NLP - 新闻文本分类Top1方案的bert4torch复现

    天池有些长期比赛可以练习玩玩(还可以继续提交),于是试了下简单的新闻文本分类任务,Top1的解决方案思路是"预训练+fgm+交叉验证模型融合",代码是基于bert4keras的,本 ...

  6. 【学习笔记】零基础入门NLP - 新闻文本分类实战

    赛题理解   首先要理解赛题的背景及描述--赛题以新闻数据为赛题数据,数据集报名后可见并可下载.赛题数据为新闻文本,并按照字符级别进行匿名处理.整合划分出14个候选分类类别:财经.彩票.房产.股票.家 ...

  7. 阿里云天池 零基础入门NLP - 新闻文本分类 2种做法,F1=0.87

    problem 1.赛题理解 数据集: 在NLP_data_list_0715.csv中,有三个链接. 分别可以下载训练集,测试集A,测试样例. f1_score介绍: F1分数(F1-score)是 ...

  8. 【天池学习赛】零基础入门NLP - 新闻文本分类

    一.赛题描述 赛题数据为新闻文本,并按照字符级别进行匿名处理.整合划分出14个候选分类类别:财经.彩票.房产.股票.家居.教育.科技.社会.时尚.时政.体育.星座.游戏.娱乐的文本数据. 赛题任务:赛 ...

  9. java统计文本中英文单词个数split_零基础入门NLP - 新闻文本分类Task2(天池入门赛)...

    本章主要内容是主要是通过pandas模块来进行数据分析.(注:文章只是对天池入门赛课件的学习) 一.学习目标 1.学习使用pandas读取赛题规律 2.分布赛题数据的分布规律 二.数据读取 使用pan ...

最新文章

  1. Java程序员如何运用所掌握的技术构建一个完整的业务架构
  2. python3 推荐使用super调用base类方法
  3. 利用数据集在水晶报表中显示图像
  4. torque安装笔记
  5. 95后热搜哪些事,夸克用AI引擎发布2021年度关键词
  6. sharepoint2010 浏览器无法打开word
  7. 上传相关js和jquery对象
  8. linux永久禁止进程,SELinux如何永久禁用 SELinux如何永久禁用
  9. springboot freemarker配置_[SpringBoot2.X] 13- 整合视图层技术(Freemarker)
  10. python语言开发环境配置理论_python语言开发环境配置
  11. 新手教程:Mac电脑如何设置自动隐藏菜单栏?
  12. asp.net高校宿舍后勤管理系统
  13. rapidminer进行关联分析、分类预测、聚类分析
  14. String常用方法汇总
  15. 计算机网络实验三:使用网络协议分析器捕捉和分析协议数据包
  16. 64位x86-64处理器
  17. PBR材质:基本原理和简单制作
  18. 飞书从个性到共性,企业微信从共性到个性
  19. [MySQL] 运算符
  20. 汉诺塔问题的时间复杂度

热门文章

  1. 31页PPT概述:图神经网络表达能力有多强?
  2. python语音识别终极指南
  3. 从比尔·盖茨说起,中国AI到底能否超过美国?
  4. Google首席执行官:AI就像火和电,有用而又危险
  5. TensorFlow可以做什么?让Google Brain首席工程师告诉你
  6. 专治选择综合征——Bandit算法
  7. MySQL 性能优化的 9 种姿势,面试再也不怕了!
  8. SpringBoot 接口幂等性的实现方案
  9. 20 张图彻底弄懂 HTTPS 的原理!
  10. 服务被干爆了!竟然是日志的锅!!