# In[4]:
#网址来源
#https://github.com/fchollet/keras/blob/master/examples/imdb_lstm.py
from __future__ import print_functionfrom keras.preprocessing import sequence
from keras.models import Sequential
from keras.layers import Dense, Embedding
from keras.layers import LSTM
from keras.datasets import imdb
import numpy as npmax_features = 20000
maxlen = 80  # cut texts after this number of words (among top max_features most common words)
batch_size = 32print('Loading data...')
#(x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=max_features)
#np.savetxt("x_train.txt", x_train)
#np.savetxt("x_test.txt", x_test)
#np.savetxt(" y_train.txt", y_train)
#np.savetxt("y_test.txt", y_test)# In[2]:x_train = np.loadtxt("/mfsdata/pachong/RNN/x_train.txt")
y_train=np.loadtxt("/mfsdata/pachong/RNN/ y_train.txt")
x_test = np.loadtxt("/mfsdata/pachong/RNN/x_test.txt")
y_test = np.loadtxt("/mfsdata/pachong/RNN/y_test.txt")# In[5]:print(len(x_train), 'train sequences')
print(len(x_test), 'test sequences')# In[6]:print('Pad sequences (samples x time)')
x_train = sequence.pad_sequences(x_train, maxlen=maxlen)
x_test = sequence.pad_sequences(x_test, maxlen=maxlen)
print('x_train shape:', x_train.shape)
print('x_test shape:', x_test.shape)# In[10]:print('Build model...')
model = Sequential()
model.add(Embedding(max_features, 128))
model.add(LSTM(128, dropout=0.2, recurrent_dropout=0.2))
model.add(Dense(1, activation='sigmoid'))model.compile(loss='binary_crossentropy',optimizer='adam',metrics=['accuracy'])print('Train...')
model.fit(x_train, y_train,batch_size=batch_size,epochs=15,validation_data=(x_test, y_test))score, acc = model.evaluate(x_test, y_test,batch_size=batch_size)print('Test score:', score)
print('Test accuracy:', acc)

karas 实现lstm 文本分类相关推荐

  1. lstm 文本分类_带有lstm和单词嵌入的灾难推文上的文本分类

    lstm 文本分类 This was my first Kaggle notebook and I thought why not write it on Medium too? Ť他是我第一次Kag ...

  2. 人工智能框架实战精讲:Keras项目-英文语料的DNN、Word2Vec、CNN、LSTM文本分类实战与调参优化

    Keras项目-英文语料的文本分类实战 一.机器学习模型 1.1 数据简介 1.2 数据读取与预处理 1.3 数据切分与逻辑回归模型构建 二.全连接神经网络模型 2.1 模型训练 2.2 模型结果展示 ...

  3. 毕业设计 word2vec 加lstm 文本分类

    基于深度神经网路的文本分类 基于主流的lstm模型 原始的数据和中间的训练 模型 链接:https://pan.baidu.com/s/1jge-RGWc_YXvnOKxEr0pkg  提取码:u5i ...

  4. 5.Python数据分析项目之文本分类-自然语言处理

    1.总结 预测类数据分析项目 流程 具体操作 基本查看 查看缺失值(可以用直接查看方式isnull.图像查看方式查看缺失值missingno).查看数值类型特征与非数值类型特征.一次性绘制所有特征的分 ...

  5. 神经网络文本分类技术实践总结

    本文内容为学校的工程实践项目总结,项目名为:"基于深度学习的书评情感分析". 源数据集是队友在豆瓣上爬下来的书评,附带星级评分:词嵌入模型尝试了两种,网上下载的大规模预料训练出的词 ...

  6. 文本分类+机器学习浅谈?

    0.引言 开门老话:如有雷同算我抄你的,私信:我就是给自己做个笔记,顺带如果能帮到别人算积德行善:文章通俗风格,难免不严谨,大家意会即可:严谨的可以去找论文推导公式看书.- 现在,随处可见的深度学习课 ...

  7. 机器学习_深度学习毕设题目汇总——文本分类

    下面是该类的一些题目:| 题目 | |–| |基于主题特征的多标签文本分类方法研究| |融合全局和局部特征的文本分类方法研究| |BiGRU-CapsNet文本分类模型研究| |基于Attentio ...

  8. R使用LSTM模型构建深度学习文本分类模型(Quora Insincere Questions Classification)

    R使用LSTM模型构建深度学习文本分类模型(Quora Insincere Questions Classification) Long Short Term 网络-- 一般就叫做 LSTM --是一 ...

  9. 文本分类实战(七)—— Adversarial LSTM模型

    1 大纲概述 文本分类这个系列将会有十篇左右,包括基于word2vec预训练的文本分类,与及基于最新的预训练模型(ELMo,BERT等)的文本分类.总共有以下系列: word2vec预训练词向量 te ...

最新文章

  1. react-router中离开确认组件Prompt
  2. Dell R720上的系统安装问题的解决办法(关于RAID建立磁盘阵列的技术)
  3. boost::range模块实现map_keys相关的测试程序
  4. LeetCode 771. 宝石与石头(哈希)
  5. 物联网os_用于物联网的FireFox OS,NextCloud公告以及更多新闻
  6. iphone7防水_iPhone11系列防水测试,其结果令人意外
  7. 利用WebBrowser获得页面部分数据
  8. CodeForces 521D nice贪心
  9. matlab滤波器函数6,matlab中滤波器函数filter的c语言实现
  10. 数据库课程设计:会议预约管理系统(Java+MySQL)
  11. codebook码本算法
  12. 稀疏光流python_《稀》字意思读音、组词解释及笔画数 - 新华字典 - 911查询
  13. ps 入门 传智播客_播客快速入门指南
  14. zend studio设置字体大小和背景颜色
  15. 用生活中的照片做海报
  16. 情殇之《秋窗风雨夕》
  17. 从源代码分析DbSet如何通过ObjectStateManager管理entity lifecycle的生命周期
  18. MATLAB读、写、转化mat文件
  19. HTML类似美团关联列表 左右联动列表
  20. EAST托卡马克上光纤电流传感器的研制与实验应用笔记1

热门文章

  1. 号卡推广管理系统源码 手机卡流量卡推广网站源码 带后台版本
  2. MaxCompute_概念/使用
  3. 用 Python 开发简单交互式 Web 应用
  4. TIA Portal高级编程
  5. Web在线聊天室(2) --- 技术实现原理
  6. 最全的中国大陆运营商所有号段!
  7. Oracle最新技术网站
  8. DL/T645-1997通信规约解读
  9. go 及GoLand 环境安装
  10. P41蜗牛一期--单臂路由