目 录

  1. 研究目标
  2. 分析方法与过程
    2.1. 总体流程
    2.2. 具体步骤
  3. 结论
  4. 参考文献

1. 挖掘目标

本次建模的目的是利用通过网络爬虫工具从某些社区采集的网络舆情信息,采用数据挖掘技术,从资源集合中找出与指定的用户中存在关联的用户,利用用户各信息与用户之间不同的关联规则,计算求得这些用户与舆情资源集合的关联度,并进行关联度排序。

2. 分析方法与过程

2.1. 总体流程

主要包括如下步骤:
步骤一: 样本数据预处理
步骤 2:为用户各属性设置不同的权重
步骤 3:中文分词
步骤 4:关键词词频统计
步骤 5:关键词在文档中的权重的量化
步骤 6:文档分类、关联度计算及排序

2.2. 具体步骤

步骤 1:样本数据预处理

数据预处理主要从两方面进行:一方面是对舆情资源的预处理,另一方面是对用户信息表的预处理。

对舆情资源的预处理 主要包括无效 HTML 文档过滤、HTML 文档噪声清洗。(程序见附录一)

无效 HTML 文档过滤
由于 HTML 文档是根据网络爬虫工具爬取而来,可能会爬取出无效的网页,如无法访问的页面。在给定的舆情资源中,存在大量的无效 HTML 文档,其内容为“404”,通过 Java 编程将其过滤。此外,还有一些 HTML 文档的内容只包含数字,没有正文内容,但是用户信息中出现了很多数值类型的属性如身份证号、电话号码等,不排除这些 HTML 文档中某些用户信息的可能,我们没有将这类文档过滤。

HTML 文档噪声清洗
由于舆情资源中的正文通常都是由成段的文字来描述,中间通常不会有大量的超链,通过对抓取到的网页 HTML 文件进行分析,可以获取网页正文信息。具体净化操作:利用 Java 编程,去除空格、“,”、“。”、“、”、 “|”、“\n\r”、“<”、“>”、“_”等 量符号。此外,考虑到文档中可能出现用户的英文信息如 E-mail、MSN 以及数值信息如身份证号、电话号码等,因此我们没有将文档中的数值信息和英文信息当作噪声信息过滤掉。

对用户信息表的预处理 主要包括无效信息处理、重复记录处理。(程序见附录二)

无效信息处理
在原始 Excel 数据表中,所有用户的国别属性值均为“中国”,因此,这个属性对于给定的用户与舆情资源的关联度分析不起作用,可以人工将其删除。

重复记录处理
表中的 Id7 和 Id26 代表同一个用户,Id8 和 Id27 代表同一个用户,这些冗余信息会影响关联度分析的结果,因此需要人工删除两行信息。观察发现 Id7 和 Id8 中存在大量噪声数据,如:Id7 和 Id8 具有相同的身份证号、出生日期、QQ 号码、E-mail和 MSN,可以看出这两行数据不能很好地代表这两个用户。而 Id26 和 Id27 中缺少“照片”信息,因此,我们将 Id7 和 Id8 的“照片”信息添加到 Id26 和 Id27 的“照片”信息中,并人工删除掉 Id7 和 Id8 所在的两行。

步骤 2:为用户各属性设置不同的权重

思路分析:

基于层次分析法的用户属性权重设置
由于用户的姓名、住址、身份证号、电话号码、QQ 号码、E-mail、MSN 等属性与用户存在着不同程度的关联,舆情资源集合中这些信息的出现模式,也间接的反映了资源与用户的关联。因此在进行舆情资源与用户之间的关联度分析之前,需要设置不同的权重,来表征用户其各属性的关联规则。本文采用层次分析法,通过相互比较,确定用户的姓名、住址、身份证号、电话号码、QQ 号码、E-mail、MSN 等属性对于用户的权重,这是一个量化的过程。

层次分析法分析步骤
(1)建立层次结构模型
本文只需确定用户各个属性对于用户的权重,因此,将各个用户的姓名、住址、身份证号、电话号码、QQ 号码、E-mail、MSN 等属性作为准则层,分别为 C1,C2,… , C11,将用户作为目标层 O。

(2)构造成对比较矩阵构造成对比较阵 A,将用户各个属性之间两两对比,对比采用相对尺度,来表征各准则 C1,C2,… , C11 对目标 O 的重要性。其中aija_{ij}aij​表示CiC_iCi​对CjC_jCj​的相对重要程度,即:
Ci:Cj⇒aijC_i:C_j \Rightarrow a_{ij}Ci​:Cj​⇒aij​
A=(aij)n×n,aij>0,aij=1aijA=(a_{ij})_{n \times n}, a_{ij}>0, a_{ij}= \frac{1}{a_{ij}}A=(aij​)n×n​,aij​>0,aij​=aij​1​

其中,比较尺度为:Saaty 等人提出 1-9 尺度——aija_{ij}aij​ 取值 1,2,… , 9 及其互反数1,1/2, … , 1/9, 便于定性到定量的转化,见表 1。

表 1 1-9 比较尺度

(3)计算权向量
采用权重算术平均法确定各影响因素的权重,步骤如下:
(a)计算各个有效判断矩阵的权重。这可归结为计算判断矩阵的最大特征根及其
特征向量的问题。计算方法包括和法、方根法、幂法。当精度要求不高时,和法、方
根法可以满足实际应用要求;当精度要求较高时可用幂法。采用方根法。计算判断矩
阵每一行元素的乘积MiM_iMi​,如式所示。

Mi=∏j=1nCij(i=1,2,.....,n)M_i = \prod_{j=1}^{n} C_{ij}(i=1,2,.....,n)Mi​=j=1∏n​Cij​(i=1,2,.....,n)

(b)计算MiM_iMi​的 n 次方根Wiˉ\bar{W_i}Wi​ˉ​, 如式所示;

Wiˉ=Min\bar{W_i}= \sqrt[n]{M_i}Wi​ˉ​=nMi​​

(c)对向量正规化,如式所示;
Wi=Wiˉ/∑j=1nWjˉW_i=\bar{W_i}/\sum_{j=1}^{n} \bar{W_j}Wi​=Wi​ˉ​/j=1∑n​Wj​ˉ​
即为所求的特征向量,也就是相应的权重系数。

(4)一致性检验
计算出每个有效判断矩阵的权重后对这些有效判断的权重取算术平均即得到各影响因素权重。一致性检验: 如果 A 是 完全一致的成对比较 矩阵,应该有ai,jaj,k=ai,ka_{i,j}a_{j,k}=a_{i,k}ai,j​aj,k​=ai,k​。但实际上在构造成对比较矩阵时要求满足上述众多等式是不可能的。因此退而要求对比较矩阵有一定的一致性,即可以允许成对比较矩阵存在一定程度的不一致性。

检验成对比较矩阵 A 一致性的步骤如下:
(a)计算衡量一个成对比矩阵 A (n>1 阶方阵)不一致程度的指标 CICICI:
CI=(λmax−n)/(n−1)CI=(\lambda_{max}- n )/(n-1)CI=(λmax​−n)/(n−1)
其中λmax\lambda_{max}λmax​是矩阵 A 的最大特征值。

(b)从有关资料查出检验成对比较矩阵 A 一致性的标准RI:RI称为平均随机一致性指标,它只与矩阵阶数有关。RI的值如表 2 所示。


(c)按下面公式计算成对比较阵 A 的随机一致性比率CR:

CR=CI/RICR = CI / RICR=CI/RI

判断方法如下: 当 CR<0.1 时,判定成对比较阵 A 具有满意的一致性,或其不一致程度是可以接受的;否则就调整成对比较矩阵 A,直到达到满意的一致性为止。

具体实现:
根据表格信息以及先验知识判断,构造成对比较矩阵。并运用 Excel 进行分析,根据上述步骤,计算出权重以及一致性检验结果。如表 3 所示。



由表 2 可知:权向量为:
w = (0.13775506 6,0.02156455 ,0.03811044,0.11281277 ,0.10837126 ,0.02868322,0.13775507,0.13775507,0.13775507,0.06971875,0.06971875 )T^TT

一致性比率为CR = 0.078885 < 0.1,通过一致性检验。
权向量 w 代表用户的用户的姓名、住址、身份证号、电话号码、QQ 号码、E-mail、MSN 等属性对于用户的权重。

步骤 3:中文分词

思路分析:

基于 ICTCLAS 的分析技术。
所谓分词,就是将连续的字序列按照一定的规范重新组合成词序列的过程,以便为其建立索引。中文分词是文本挖掘的基础工作,是文本深层分析的前提。不同于英文文本,其词间的空格可以作为其自然分隔符,因此在词的层次上,中文分词的难度相对英文分词高。此外,中文分词还面临着歧义切分、未登录词识别等难题。

本文采用中国科学院计算机所软件室编写的中文分词工具 ICTCLAS,对 HTML文档和 TXT 文档进行中文分词。ICTCLAS 的分词速度快,精度高,具有新词识别、支持用户词典等功能,基本上解决了中文分词的难题。ICTCLAS 中文分词工具还具有词性标注的功能。词性标注方法包括北大一级标注和二级标注。其中,一级只标注名词、动词等;二级可以标注出更为具体的情况,如具有名词功能的形容词或者动词,专有名词等等。为了提高挖掘查准率,我们采用了二级标注。为了进一步进行词频统计,分词结束后将词性标注去掉。

具体实现:

本文使用 ICTCLAS 提供的 JNI 接口进行 Java 编码,实现了中文文本分词(程序见附录三 )。如对下面一篇原始 HTML 文档进行中文分词:

步骤 4:关键词词频统计

思路分析:
为了找出与舆情资源有关的用户,需要将用户的姓名、性别、住址、身份证号、电话号码、出生日期、QQ 号码、E-mail、MSN、附加关键字、照片等信息定义为关键字并进行词频统计。

具体实现:
(1)利用 Java 编程,读入所有分词后的 HTML 文档。遍历这些文档,从第一个用户开始,如果发现文档中出现了该用户的任何一个属性值,就记录下该文档的文档名称,并依次记录下该用户的所有属性在此文档中出现的频率中,汇总成为一个表格。部分结果如图一。

(2)采用同样的方法,对 TXT 文档集中的每个文档进行关键词的词频统计。出现在了 HTML 文档中。部分结果如图二。


由词频统计结果可知,在给定的 24 个用户中,总共有 18 个用户出现在了舆情资源中。将其信息整理成表格,如表 3。




(3)由于舆情资源中,TXT 文档的内容是相应编号的 HTML 文档的标题,标题一般是反映一篇文档主题的句子,如果标题中出现了用户的相关信息,说明该文档与用户的关联度比较大。因此在进行接下来的文本挖掘之前,我们为标题中的关键词赋予了相对文档正文中关键词更大的权重,两者比例为 3:1。即当文档中的标题出现了用户的某一属性值时,我们在计算它们的词频时会乘权值 3,以突出它的重要程度。运用 MATLAB软件编写程序,加权统计各文档中的关键词词频。加权后部分结果如图三所示。(程序见附录 3)

步骤 5:关键词在文档中的权重的量化

思路分析:

本文采用 df*idf 的方法对关键词在各文档中的权重进行量化。

df*idf 法的思想
传统文本挖掘技术中,用Wi,jW_{i,j}Wi,j​表示第 i 个文本中第 j 个词的权重。这里的权重,是结合词频 df 和逆文档频率 idf 而来的。其中,tfi,jtf_{i,j}tfi,j​表示第 j 个词在第 i 个文本中出现的频率;idfi,jidf_{i,j}idfi,j​表示词语在整个文本集中的分布情况,即包含该词语的文档个数越少,则 idf 越大,说明该词语具有较强的类别区分能力。其计算公式为:
idfi,j=logNmi,jidf_{i,j}=log\frac{N}{m_{i,j}}idfi,j​=logmi,j​N​

其中,mi,jm_{i,j}mi,j​表示包含该词语的文本个数,N 表示文本总个数。

基于 tf*idf 法的关键词在舆情资源的权重计算。
本文中,我们并非与遵循传统 web 内容挖掘的步骤计算每篇文档中每个词的权重。与传统 web 内容挖掘的主要区别在于:传统 web 文本的内容挖掘的步骤是:文本表示(VSM 模型) 词权计算(tf *idf 法) 文本特征选择 文本分类;而在本文中,我们的目的是为了找到与舆情源有关联的用户,为了防止文本特征选择所有与用户有关的信息均被过滤掉,我们直接将用户的各个属性作为文本特征并 用 tf *idf 法求得其在各文档中的权重。

具体实现:
(1)在上文中,我们通过遍历文档,统计出各个用户属性在文档中的加权词频。但表中存在大量的重复文档,原因是:同一个文档,在扫描过程中,如果出现了不 同用户的属性值,会被分别记录在表中的不同行。因此,在进行下一步分析之前,首先需要对词频表进行预处理,转化成没有重复文档的形式。观察加权词频表,其中出生日期、Email、MSN、照片的出现频率所在列全为 0,说明任何一个用户的这些属性都没有出现在舆情资源集合中。为了节约算法空间,这些属性无需统计。因此,将上述的词频统计表格导入到 clementine 12.0 软件中,对剩余 7 个属性进行处理,分别将其转化成为文档名称-姓名、文档名称-地址、„„ 、文档名称-附加关键词等 7 个交叉计数矩阵。SPSS 的实现过程如图四所示。


此外,文档名称-姓名的交叉计数矩阵如图五所示。


由图四可知,交叉计数矩阵的中的元素并无实际意义。这样子做的目的是将上一个步骤中得到的词频表转化成为文档与各属性一一对应的矩阵,以便进一步利用MATLAB 软件进行分析。

(2)采用 df*idf 法,利用 MATLAB 软件编写程序,获得上述的 7 个矩阵W 1~W 11(其中W 6、W 8、W 9、W 11均为零矩阵),每个矩阵分别表示所有用户的同一属性在各个文档中的权重值。其中,Wki,j(k=1,2,....,11;i=1,2,....,361;j=1,,2,....,18)Wk_{i,j}(k=1,2,....,11; i=1,2,....,361; j=1,,2,....,18)Wki,j​(k=1,2,....,11;i=1,2,....,361;j=1,,2,....,18)表示第 j 个用户的第 k 个属性值在第 i个文档中的权重,例如:W11,1W1_{1,1}W11,1​表示用户 Id1 的第一个属性即姓名“王林”在第一个文档中所占的权重。

从结果中可以得到一些重要的信息:每一个矩阵都是 361*18,说明在在给定的资源集合中,总共有 361 个 HTML 文档是包含了用户信息的;在给定的 24 个用户中,有18 个用户是与此舆情资源有关联的。

得到的W 1、W 3的部分结果如图六、七所示。(程序见附录三。)

步骤 6:文档分类及关联度分析

思路分析:

本次挖掘的主要目标是得到每个用户与整个舆情资源的关联度。在本文中,我们将这里的关联度理解为:从舆情资源集合中,分别挖掘出与每一个用户匹配的文档的篇数。相当于将每一个与舆情资源有关的用户分别作为一个类别,将所有舆情文档进行分类,根据其在整个舆情资源集合中所占的比重来代表每一个用户与资源集合的关联度,并进行关联度排序。

具体实现:

将每个用户的 Id 号作为其类别编号,然后依次读入舆情资源集合中与用户相关联的 361 个文档。每读入一个文档,就计算其归属于每个用户类别的得分,如果最高得分高于我们设定的阈值,则将其归属于该用户所在类;否则,就归为“其他”类别。最后,将每个类别中包含的文档篇数与整个舆情资源集合中所有文档篇数的比值作为各用户与舆情资源的关联度,并进行降序排列。

在文档所属用户类别的得分公式中,我们主要考虑了以下因素:

(a)文档中关键词所占权重,这里的权重是根据词频与词的重要程度相结合得的,即采用前面所提到的 tf*idf 法计算而来。
(b)每一个关键属性对于用户的权重。由于用户的姓名、住址、身份证号、电话号
码、QQ 号码、E-mail、MSN 等属性与用户存在着不同程度的关联,舆情资源集合中这些信息的出现模式,也间接的反映了资源与用户的关联。若一篇文档中出现了某一个用户的某些属性,我们可以将其作为该文档的文本特征计算分别它们在该文档中的权重,在此基础上,赋予每个属性一个权值,这样得到的加权和来量化该文档与用户之间的关联。

得分公式为:

Score(xi,Idj)=∑k=111Wk×Wki,j×Ixik(i=1,2,...361;j=1,2,...,18;k=1,2,..11)Score(x_i,Id_j)=\sum_{k=1}^{11} W_k \times Wk_{i,j} \times I_{x_{i}} {k}(i=1,2,...361; j=1,2,...,18; k=1,2,..11)Score(xi​,Idj​)=k=1∑11​Wk​×Wki,j​×Ixi​​k(i=1,2,...361;j=1,2,...,18;k=1,2,..11)

其中:XiX_iXi​表示第 i 篇文档; IdjId_jIdj​表示第 j 个用户;WkW_kWk​表示步骤 2 中根据层次分析法得到的各属性对于用户的权重;Wki,jWk_{i,j}Wki,j​表示第 j 个用户的第 k 个属性值在第 i个文档中的权重;IkI{k}Ik是示性函数,其含义为:当文档XiX_iXi​中出现IdjId_jIdj​的第 k 个属性时,则Ixi{k}I_{x_{i}} \{k \}Ixi​​{k}取 1,否则Ixi{k}I_{x_{i}} \{k \}Ixi​​{k}取0。具体流程如下:


根据上述思想流程,将阈值设置为1×10−41 \times 10^{-4}1×10−4,运用 MATLAB 编写程序。其中,前 80个文档最高得分、最高得分所属 Id 号以及文档分类结果号如表 5 所示。(程序见附录四)


其中,文档最终所属 Id 类号为 0,说明文档的最高得分低于阈值,将其判别为“其他”类别。

根据文档分类表,运用 matlab 编写程序,计算出各 Id 所包含的文档个数,由此计算出各用户与舆情资源的关联度,并进行关联度排序。结果如表 6 所示。

3. 结果分析

文本根据对题目的理解,在传统文本内容分析的思想基础上,创新性地提出了根据文本得分将文本进行分类并计算关联度的算法,最终达到了挖掘目标。

结果显示,用户与舆情资源的关联度:Id16> Id 17> Id 18> Id26> Id 5 > Id19 > Id 11>Id 12> Id 21> Id 27> Id 14> Id 1> Id 20> Id 25> Id 4> Id 22> Id 23> Id 24。

但本文的模型仍存在不足:
(1)分类模型受阈值影响较大。
(2)主成分分析求用户各属性的权重时建立的成对比较矩阵受主观因素影响。
(3)由于缺乏真实语料库,结果的精确度无法计算得出。
因此,本文的研究还需要进一步改进。

4. 参考文献

[1]张玉峰,何超. 基于Web挖掘的网络舆情智能分析研究. 武汉大学信息资源研究中心

[2]蒋盛益,李霞,郑琪. 数据挖掘原理与实践. 电子工业出版社.2013

[3]何佳,周长胜,石显锋. 网络舆情监控系统的实现方法. 郑州大学学报

5. 附录

附录一

import ICTCLAS.I3S.AC.ICTCLAS50;
import java.util.regex.Matcher;
import java.util.regex.Pattern;
import java.io.*;
import jxl.Cell;
import jxl.Sheet;
import jxl.Workbook;
import jxl.read.biff.BiffException;
class TestMain
{public static ICTCLAS50 testICTCLAS50;public static String FileReplace(String FilePath)//过滤空格
{try { // 防止文件建立或读取失败,用 catch 捕捉错误并打印,也可以 throw
/* 读入 TXT 文件 */
String FinalString="";
//String pathname = ".\\data\\jn_10831429.html"; // 绝对路径或相对路径都可以,这里是
绝对路径,写入文件时演示相对路径
File filename = new File(FilePath); // 要读取以上路径的 input。txt 文件
InputStreamReader reader = new InputStreamReader(
new FileInputStream(filename),"GBK"); // 建立一个输入流对象 reader
BufferedReader br = new BufferedReader(reader); // 建立一个对象,它把文件内容转成计
算机能读懂的语言
String line = "";
line = br.readLine();
String lineGuoLv;
while (line != null) {lineGuoLv=line.replace("|", "").replace(" ", "").replaceAll("\n\r","");
FinalString+=lineGuoLv;
//System.out.print(lineGuoLv);
line = br.readLine(); // 一次读入一行数据
}
br.close();
return FinalString;
} catch (Exception e) {//e.printStackTrace();
return "404htm";
} }
public static void StringOutToFile(String str,String FilePath)
{try{File writename = new File(FilePath); // 相对路径,如果没有则要建立一个新的 output。txt 文 件
writename.createNewFile(); // 创建新文件
BufferedWriter out = new BufferedWriter(new FileWriter(writename));
out.append(str);
/* 写入 Txt 文件 */
out.flush(); // 把缓存区内容压入文件
out.close(); // 最后记得关闭文件
}catch (Exception e){e.printStackTrace();
} }
public static void ExcelAddToTxtFile(String ExcelFilePath,String TxtFilePath)
{try {File writename = new File(TxtFilePath); // 相对路径,如果没有则要建立一个新的
output。txt 文件
writename.createNewFile(); // 创建新文件
BufferedWriter out = new BufferedWriter(new FileWriter(writename));
File writeCheckname = new File("Check.txt"); // 相对路径,如果没有则要建立一个新的
output。txt 文件writeCheckname.createNewFile(); // 创建新文件
BufferedWriter check = new BufferedWriter(new FileWriter(writeCheckname));
Sheet sheet;
Cell cell1;
String StringTxt="";
Workbook book=Workbook.getWorkbook(new File(ExcelFilePath));
sheet=book.getSheet(0);
for(int i=1;i<sheet.getRows();i++)
{for(int j=1;j<sheet.getColumns();j++){cell1=sheet.getCell(j,i);
StringTxt=cell1.getContents();
if(!("".equals(StringTxt)))
{if(!"中国".equals(StringTxt))
{if(!"女".equals(StringTxt)&&!"男".equals(StringTxt))
{if(StringTxt.contains(","))
{StringTxt=replaceBlank(StringTxt,",");
}
out.append(StringTxt+"@@EX\r\n");
check.append(StringTxt+"\r\n");
} } } }
out.append("*************************************"+"@@EX\r\n");
check.append("###################################\r\n");
}
book.close();
out.flush(); // 把缓存区内容压入文件
out.close(); // 最后记得关闭文件
check.flush();
check.close();
} catch (Exception e) {e.printStackTrace();
} }
public static String replaceBlank(String strsrc,String Strtoreplase) {String dest = "";
if (strsrc!=null&&Strtoreplase!=null) {Pattern p = Pattern.compile(Strtoreplase);
Matcher m = p.matcher(strsrc);
dest = m.replaceAll("\r\n");
}
return dest;
}
public static void Init() throws IOException
{//创建分词对象
testICTCLAS50 = new ICTCLAS50();
String argu = ".";
//初始化if (testICTCLAS50.ICTCLAS_Init(argu.getBytes("GB2312")) == false)
{System.out.println("Init Fail!");
return;
}
//设置词性标注集(0 计算所二级标注集,1 计算所一级标注集,2 北大二级标注集,3 北
大一级标注集)
testICTCLAS50.ICTCLAS_SetPOSmap(2);
ExcelAddToTxtFile("userinfo.xls","userdict.txt");
int nCount = 0;
String usrdir = "userdict.txt"; //用户字典路径
byte[] usrdirb = usrdir.getBytes();//将 string 转化为 byte 类型
//导入用户字典,返回导入用户词语个数第一个参数为用户字典路径,第二个参数为用户字
典的编码类型
nCount = testICTCLAS50.ICTCLAS_ImportUserDictFile(usrdirb, 0);
System.out.println("导入用户词个数" + nCount);
nCount = 0;
}
public static void BuildingResult(String INFilePath,String OutFilePath,String FileNameBuild,long
Index) throws IOException
{String text=FileReplace(INFilePath);
InputStreamReader reader = new InputStreamReader(
new FileInputStream(new File("Check.txt"))); // 建立一个输入流对象 reader
BufferedReader br = new BufferedReader(reader); // 建立一个对象,它把文件内容转成计算机
能读懂的语言
String line = "";
line = br.readLine();
byte nativeBytes[] = testICTCLAS50.ICTCLAS_ParagraphProcess(text.getBytes("GB2312"), 0,
0);//分词处理
String nativeStr = new String(nativeBytes, 0, nativeBytes.length);
nativeStr=replaceBlank(nativeStr," ");
if(!nativeStr.matches("404\r\n"+"\u003C\r\n"+"\u002F\r\n"+"htm\r\n"))
{String FileName=OutFilePath;
long i=1;
while(line!=null&&line!="\r\n")
{//System.out.print(i+"\n");
//System.out.print(line+"\n");
FileName=OutFilePath+"\\ID_"+Long.toString(i)+"_Name_"+line;
File dirFile = null ;dirFile = new File(FileName);if (!(dirFile.exists())&&!(dirFile.isDirectory())){boolean creadok=dirFile.mkdirs();if (creadok) {System.out.println("ok:创建文件夹成功!");}else{System.out.println( "err:创建文件夹失败!"); } }while(!line.contains("######"))
{if(nativeStr.contains(line))
{FileWriter Consoleout = new FileWriter("Console.txt", true);
Consoleout.write(FileName+FileNameBuild+" Contain
KeyWord:"+line+"\r\n");
System.out.print(FileName+FileNameBuild+" Contain
KeyWord:"+line+"\r\n");
StringOutToFile(nativeStr,FileName+FileNameBuild);
Consoleout.flush();
Consoleout.close();
}
line = br.readLine();
}
line = br.readLine();
i++;
} }
br.close();
}
public static void SystemQuit()
{if(testICTCLAS50.ICTCLAS_Exit()) System.out.print("QuitSystem!");
else System.out.print("QuitSystem Error!");
}
public static void main(String[] args) throws IOException, BiffException {Init();
for(long i=10831429;i<10838261;i++)
{BuildingResult(".\\webdata\\jn_"+Long.toString(i)+".html",".\\divresult\\html","\\output_jn_"+Long.toString(i)+".txt",i);
}
//System.out.print("Complish 25%!\n");
for(long i=10831429;i<10838261;i++)
{BuildingResult(".\\webdata\\jn_"+Long.toString(i)+".txt",".\\divresult\\txt","\\output_jn_"+Long.toString(i)+".txt",i);
}
//System.out.print("Complish 50%!\n");
for(long i=1030935;i<1031937;i++)
{BuildingResult(".\\webdata\\jw_"+Long.toString(i)+".html",".\\divresult\\html","\\output_jw_"+Long.toString(i)+".txt",i);
}
//System.out.print("Complish 75%!\n");
for(long i=1030935;i<1031937;i++)
{BuildingResult(".\\webdata\\jw_"+Long.toString(i)+".txt",".\\divresult\\txt","\\output_jw_"+Long.toString(i)+".txt",i);
}
System.out.print("Complish 100%!\n");
SystemQuit();
}

附录 2

import java.io.BufferedReader;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.InputStreamReader;
import java.io.UnsupportedEncodingException;
import java.util.Vector;
import org.apache.poi.hssf.usermodel.HSSFCell;
import org.apache.poi.hssf.usermodel.HSSFRow;
import org.apache.poi.hssf.usermodel.HSSFSheet;
import org.apache.poi.hssf.usermodel.HSSFWorkbook;
public class Statistics {public static HSSFWorkbook workbook = null; //相当于 Excel 整个文件
public static FileOutputStream fos = null;
public static Vector<String> verFile=null;
public static void ExcelBuild(String FilePath) throws IOException {workbook= new HSSFWorkbook(); //相当于 Excel 整个文件
try {fos = new FileOutputStream(FilePath);
} catch (FileNotFoundException e) {e.printStackTrace();
}
HSSFSheet sheet = workbook.createSheet("sheet1"); //生成 Excel 中的 sheet
HSSFRow row = sheet.createRow(0); //创建第一行
HSSFCell cell = row.createCell(0); //创建第一个单元格
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("文件名称:"); //设定单元格的名字
cell = row.createCell(1); //创建第二个单元格
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("Id:");
cell = row.createCell(2);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("姓名:");
cell = row.createCell(3);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(4);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("性别:");
cell = row.createCell(5);cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(6);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("住址:");
cell = row.createCell(7);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(8);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("国别:");
cell = row.createCell(9);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(10);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("身份证号:");
cell = row.createCell(11);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(12);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("电话号码:");
cell = row.createCell(13);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(14);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出生日期:");
cell = row.createCell(15);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(16);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("QQ 号码:");
cell = row.createCell(17);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(18);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("E-mail:");
cell = row.createCell(19);cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(20);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("MSN:");
cell = row.createCell(21);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(22);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("附加关键字:");
cell = row.createCell(23);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(24);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("照片:");
cell = row.createCell(25);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("出现频率:");
cell = row.createCell(26);
cell.setCellType(HSSFCell.CELL_TYPE_STRING);
cell.setCellValue("本文总词数:");
/**至此为止,表头部分就定义好了**/
}
public static void ExcelAddWrite(String sheetname,int Row,int Col,Object Data,int CellType)
throws IOException, IOException
{HSSFRow row=null;
HSSFCell cell=null;
HSSFSheet sheet=workbook.getSheet(sheetname);
if(sheet==null)
{try {sheet=workbook.createSheet(sheetname);
} catch (Exception e) {e.printStackTrace();} }if(sheet.getLastRowNum()<Row){try {row = sheet.createRow(Row);} catch (Exception e) {e.printStackTrace();}}else row = sheet.getRow(Row);
if(row!=null){if(row.getLastCellNum()-1<Col) //创建第一个单元格{cell = row.createCell(Col);}else cell = row.getCell(Col);}cell.setCellType(CellType);switch (CellType){case HSSFCell.CELL_TYPE_STRING:cell.setCellValue((String) Data);break;case HSSFCell.CELL_TYPE_NUMERIC:cell.setCellValue((long)Data);break;} //workbook.write(fos);
}
public static long HowManyWordInTheAriticle(String AriticleFilePath) throws IOException
{long Length=0;
BufferedReader br = new BufferedReader(new InputStreamReader(
new FileInputStream(new File(AriticleFilePath)))); // 建立一个对象,它把文件内容
转成计算机能读懂的语言
while (br.readLine()!= null) ++Length;
br.close();
return Length;
}
public static void ExcelClose()
{try {//将这个文件交给 HSSFWorkbook 类 由它负责写入
workbook.write(fos);
fos.flush();
//关闭输出流
fos.close();
} catch (IOException e1) {e1.printStackTrace();
} }
public static void FileList(String FilePath)
{verFile = new Vector<String>();
File[] files = new File(FilePath).listFiles();
int len=files.length;for(int i=0;i<len;i++){String tmp=files[i].getName();if(!files[i].isDirectory())verFile.add(tmp);} }
public static long Frequent(String FilePath,String Word) throws IOException, FileNotFoundException
{long FreHz=0;File filename = new File(FilePath); // 要读取以上路径的 input。txt 文件
InputStreamReader reader = new InputStreamReader(
new FileInputStream(filename),"GBK"); // 建立一个输入流对象 reader
BufferedReader br = new BufferedReader(reader); // 建立一个对象,它把文件内容转成计算机
能读懂的语言
String line = "";
line = br.readLine();
while (line != null)
{if(Word.contains(","))
{//拆分匹配
String[] strArray = null; strArray = Word.split(",");for(int i=0;i<strArray.length;i++){if(line.equals(strArray[i]))++FreHz;//System.out.print(strArray[i]+"\n");} }
else
{if(line.equals(Word))
++FreHz;
}
line=br.readLine();
}
br.close();
return FreHz;
}
public static void ProcessWithData(String FileNameForFind,String OutPutExcelName) throws
IOException
{//ExcelBuild(".\\Result.xls");
ExcelBuild(OutPutExcelName);
//读取 Check.txt;通过 Id 和名字读取 divresult 的文件夹;
String FilePath=".\\Excel.txt";
String line = "";
InputStreamReader reader = new InputStreamReader(
new FileInputStream(new File(FilePath)),"GBK"); // 建立一个输入流对象
reader
BufferedReader br = new BufferedReader(reader); // 建立一个对象,它把文件内容转成计算机
能读懂的语言
//第一次读取 Check.txt 必定得到第一个用户名字
String UserInfohtmlDir="";//用户的分词文件路径
long eRow=1;
line = br.readLine();
long UserID=1;
//由于 Check.txt 中对每一个用户有用##############隔开;扫描到这个说明用户信息搜索
完毕;但#####&&#######代表 excel 中的括号。
while(line != null)//文件结束
{//String FileNameForFind="\\txt";UserInfohtmlDir=".\\divresult"+FileNameForFind+"\\"+"ID_"+Long.toString(UserID)+"_Name_"+lin
e;//遍历 html 文件夹
FileList(UserInfohtmlDir);//获取全部文件名字
Vector<String> ExcelTxtBuffer=new Vector<String>();//缓存当前用户信息
while (!line.contains("###################################"))
{ExcelTxtBuffer.add(line);
line=br.readLine();
}
while(!verFile.isEmpty())
{//遍历路径下的所有文件;进行词频统计
//System.out.print(UserInfohtmlDir+"\\"+verFile.get(0)+"\n");
//打开一个文件;对其进行遍历
//写下文件名字
String outputFileName=verFile.get(0);
if(FileNameForFind.contains("\\html"))
ExcelAddWrite("sheet1",(int)eRow,(int)0,outputFileName.replaceAll("output_",
"").replaceAll(".txt", ".html"),HSSFCell.CELL_TYPE_STRING);
else ExcelAddWrite("sheet1",(int)eRow,(int)0,outputFileName.replaceAll("output_",
""),HSSFCell.CELL_TYPE_STRING);
//写入 ID
ExcelAddWrite("sheet1",(int)eRow,(int)1,UserID,HSSFCell.CELL_TYPE_NUMERIC);
int i,j;
for (i=0,j=2;i<ExcelTxtBuffer.size();i++,j+=2)
{String WoldToFind=ExcelTxtBuffer.get(i);
long WoldFreq=Frequent(UserInfohtmlDir+"\\"+verFile.get(0),WoldToFind);// 词
频统计
ExcelAddWrite("sheet1",(int)eRow,(int)j,WoldToFind,HSSFCell.CELL_TYPE_STRING);//写入关键 字
ExcelAddWrite("sheet1",(int)eRow,(int)j+1,WoldFreq,HSSFCell.CELL_TYPE_NUMERIC);//写入词
频 }
ExcelAddWrite("sheet1",(int)eRow,(int)j,HowManyWordInTheAriticle(UserInfohtmlDir+"\\"+output
FileName),HSSFCell.CELL_TYPE_NUMERIC);//写入文章词数
++eRow; //行加 1
verFile.remove(0);//移除已经完成搜索的文件
}
ExcelTxtBuffer.clear();
line=br.readLine();
++UserID;
}
br.close();
ExcelClose();
System.out.print("Complish!100%\n");
}public static void main(String[] args) throws IOException
{ProcessWithData("\\html",".\\htmlResult.xls");
ProcessWithData("\\txt",".\\txtResult.xls");
} }

附录 3 TXT 文档与 HTM 文档的加权词频

clear;
clc;
[Data1
Text1]=xlsread('C:\Users\w7\Desktop\data\ÕûÀíºÃµÄÊý¾Ý\¹Ø¼ü´Ê´ÊƵͳ¼Æ±í\
txtResult2.xls')
[data
text]=xlsread('C:\Users\w7\Desktop\data\ÕûÀíºÃµÄÊý¾Ý\¹Ø¼ü´Ê´ÊƵͳ¼Æ±í\h
tmlResult2.xls')
for i=2:43v=Text1(i,1);w=Text1(i,3);for p=2:510if strcmp(text(p,1),v)==1 && strcmp(text(p,3),w)==1for q=3:2:23data(p-1,q)=Data1(i-1,q).*2+data(p-1,q); endendend
end
data

附录 4 词频统计

M文件:
function A=cipin(A,B)
a=size(A);
a1=a(1)
a2=a(2)
b=size(B);
b1=b(1);
b2=b(2);
B(2:b1,2:b2)=B(1,2);
[C D]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\Txt与Html加
权合并\加权词频表.xls')
for j=1:a2for i=1:a1if A(i,j)~=0m=B(i+1,1);n=B(1,j+1);for q=1:25for p=1:510if strcmp(D(p,1),m)==1 && strcmp(D(p,q),n)==1A(i,j)=C(p-1,q);endendendendend
end
A脚本文件:
clear;
clc;
[data1 text1]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某
属性在各文档中出现次数\文档-姓名.xlsx');
data1=cipin(data1,text1)
[data2 text2]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某
属性在各文档中出现次数\文档-性别.xlsx');
data2=cipin(data2,text2)
[data3 text3]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某
属性在各文档中出现次数\文档-地址.xlsx');
data3=cipin(data3,text3)
[data4 text4]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某
属性在各文档中出现次数\文档-身份证号.xlsx');
data4=cipin(data4,text4)
[data5 text5]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某
属性在各文档中出现次数\文档-电话号码.xlsx');
data5=cipin(data5,text5)
[data7 text7]=xlsread(''C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某
属性在各文档中出现次数\文档-qq号.xlsx');
data7=cipin(data7,text7)
[data10 text10]=xlsread(''C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表
\某属性在各文档中出现次数\文档-附加关键词.xlsx');
data10=cipin(data10,text10)

附录 5 计算关键词权重

M-文件
function function W=tf_idf(A,B,k)
a=size(A);
a1=a(1)
a2=a(2)
b=size(B);
b2=b(2);
[C D]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\TF、IDF\总词
数.xlsx');
[E F]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\出现在舆情资
源中的用户及其信息.xlsx');
%计算每个用户的在各第k个属性在文档中的频率
for i=1:a1for j=1:a2p(i,j)=A(i,j)./C(i);end
end
p;
%计算每个用户的第k个属性的逆文档频率
t=0;
for j=1:a2for i=1:a1if A(i,j)>0t=t+1;endend
if t>0idf(j)=log(7818/t);elseidf(j)=0;endt=0;
end
idf;
%计算每个用户的第k个属性的权重
for j=1:a2for i=1:a1w(i,j)=p(i,j).*idf(j);end
end
w;
%输出一个361*18的矩阵,记录每个用户的第k个属性的权重
for i=2:19m=F(i,k);for j=2:b2if strcmp(B(1,j),m)==1W(:,i-1)=w(:,j-1);breakelseW(:,i-1)=zeros(361,1);endend
end
W
脚本文件:
function W=tf_idf(A,B,k)
a=size(A);
a1=a(1)
a2=a(2)
b=size(B);
b2=b(2);
[C D]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\TF、IDF\总词数.xlsx');
[E F]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\出现在舆情资源中的用户
及其信息.xlsx');
%计算每个用户的在各第 k 个属性在文档中的频率
for i=1:a1for j=1:a2p(i,j)=A(i,j)./C(i);end
end
p;
%计算每个用户的第 k 个属性的逆文档频率
t=0;
for j=1:a2for i=1:a1if A(i,j)>0t=t+1;endend
if t>0idf(j)=log(7818/t);elseidf(j)=0;endt=0;
end
idf;
%计算每个用户的第 k 个属性的权重
for j=1:a2for i=1:a1w(i,j)=p(i,j).*idf(j);end
end
w;
%输出一个 361*18 的矩阵,记录每个用户的第 k 个属性的权重
for i=2:19m=F(i,k);for j=2:b2if strcmp(B(1,j),m)==1W(:,i-1)=w(:,j-1);breakelseW(:,i-1)=zeros(361,1);endend
end
W
脚本文件:
[data1 text1]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某属性在各文档中
出现次数\文档-姓名 1.xlsx');
W1=tf_idf(data1,text1,2)
[data2 text2]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某属性在各文档中
出现次数\文档-性别 1.xlsx');
W2=tf_idf(data2,text2,3)
[data3 text3]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某属性在各文档中
出现次数\文档-地址1.xlsx');
W3=tf_idf(data3,text3,4)
[data4 text4]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某属性在各文档中
出现次数\文档-身份证号1.xlsx');
W4=tf_idf(data4,text4,5)
[data5 text5]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表
\某属性在各文档中出现次数\文档-电话号码1.xlsx');
W5=tf_idf(data5,text5,6)
[data7 text7]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某属性在各文档中
出现次数\文档-qq号1.xlsx');
W7=tf_idf(data7,text7,8)[data10 text10]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\某属性在各文档
中出现次数\文档-附加关键词2.xlsx');
W10=tf_idf(data10,text10,11)

附录 6 关联度计算

clc;
clear;
[data text]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\出现在舆情资源中的
用户及其信息.xlsx');
W1=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\TF、IDF\权重\各用户姓名的
权重.xlsx');
W2=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\TF、IDF\权重\各用户性别的
权重.xlsx');
W3=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\TF、IDF\权重\各用户地址的
权重.xlsx');
W4=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\TF、IDF\权重\各用户身份证
号的权重.xlsx');
W5=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\TF、IDF\权重\各用户电话号
码的权重.xlsx');
W7=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\TF、IDF\权重\各用户 qq 的权
重.xlsx');
W10=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\TF、IDF\权重\用户附加关键
字的权重.xlsx');
W6=zeros(361,18);
W8=zeros(361,18);
W9=zeros(361,18);
W11=zeros(361,18);
w=[0.137755066,0.02156455,0.03811044,0.11281277,0.10837126,0.02868322,0.13775507,0.13775507,0.
13775507,0.06971875,0.06971875];
format long g
P=w(1).*W1+w(2).*W2+w(3).*W3+w(4).*W4+w(5).*W5+w(6).*W6+w(7).*W7+w(8).*W8+w(9).*W9+
w(10).*W10+w(11).*W11
for i=1:361[y I]=max(P(i,:));J=data(I,1);p(i,1)=y;p(i,2)=J;
end
p
clc;
clear;
a=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关联度\得分计算表.xlsx');
[data text]=xlsread('C:\Users\w7\Desktop\data\整理好的数据\关键词词频统计表\出现在舆情资源中的
用户及其信息.xlsx');
%对文档进行分类
for i=1:361
if a(i,19)>10^(-4); %阈值设为 10^(-4)b(i)=a(i,20);elseb(i)=0;end
end
b=b';
%计算每个用户相关联的文档篇数
for i=1:18 k=0;for j=1:361if b(j)==data(i,1)k=k+1;endendc(i)=k;
end
c=c';
%计算各用户与舆情资源的关联度
d=c/7818;
f=[data(:,1) c d]
g=sortrows(f,-3)

“泰迪杯”挑战赛-通过数据挖掘和监控分析网络舆情的关联度相关推荐

  1. “泰迪杯”挑战赛 - 通过数据挖掘技术实现道路缺陷自动识别

    目 录 挖掘目标 分析方法与过程 2.1. 总体流程 2.2. 具体步骤 2.2.1 缺陷图像预处理 2.2.2 缺陷图像分割 2.2.3 缺陷图像特征提取 2.2.4 BP 神经网络模式识别 2.3 ...

  2. 第七届泰迪杯挑战赛C题

    第七届"泰迪杯"数据挖掘挑战赛C题赛题和数据 网盘链接: https://pan.baidu.com/s/1VRIHBLqaTsfOMLnVmibo5A 提取码:L6X6

  3. 泰迪杯|第十一届“泰迪杯”挑战赛作品提交仅剩2天了!

    提交作品截止时间: 2023年4月28日 16:00:00 距离第十一届"泰迪杯"数据挖掘挑战赛提交作品结束时间只剩2天了,相信大家都在做着最后的更改.小编为大家整理了一些提交的步 ...

  4. 第十一届“泰迪杯”挑战赛作品提交仅剩2天了!!!

    提交作品截止时间: 2023年4月28日 16:00:00 距离第十一届"泰迪杯"数据挖掘挑战赛提交作品结束时间只剩2天了,相信大家都在做着最后的更改.小编为大家整理了一些提交的步 ...

  5. “泰迪杯” 挑战赛 - 利用协同过滤与卷积神经网络为电视产品制订智能化营销推荐

    目录 问题重述 模型假设 数据预处理 3.1 数据清洗 3.1.1 数据缺失的分析和处理 3.1.2 数据异常的分析和处理 3.2 数据规约 数据分析 4.1 电视产品体系图 4.2 收视用户体系图 ...

  6. “泰迪杯”挑战赛 - 基于Java的面向网络舆情的关联度分析(附算法代码)

    目 录 研究目标 分析方法与过程 2.1. 总体流程 2.2. 具体步骤 2.3. 结果分析 结论 参考文献 1. 挖掘目标 本次建模目标是利用网络爬虫工具采集的大量网络舆情信息,采用数据挖掘技术,给 ...

  7. “泰迪杯”挑战赛 -利用非侵入式负荷检测进行高效率数据挖掘(完整数学模型)

    目录 1 研究背景与意义 2 变量说明 3 问题分析 4 问题一 4.1 数据预处理 4.1.1 降噪处理 4.1.2 数据变换 4.2 负荷特征分析 4.2.1 暂态特征 4.2.2 稳态特征 5 ...

  8. 基于数据挖掘的上市公司财务数据分析——第九届“泰迪杯”挑战赛A题优秀作品

    1 问题重述 1.1 问题背景 这是一个信息增长速度飞快的时代,人们获取信息的方式也更加多样化.随着网络和计算机技术的快速发展,如何对各种重要资料进行数据分析是应对变化发展的主要途径.公司在经营过程中 ...

  9. “泰迪杯”挑战赛 - 基于非侵入式负荷检测与分解针对日常电器的电力数据挖掘

    目录 1.挖掘目标 2.分析方法与过程 2.1 问题 1 分析方法与过程 2.1.1 单个设备运行特征 2.1.2 实时用电量计算 2.2 问题 2 分析方法与过程 2.2.1 流程图 2.2.2 基 ...

最新文章

  1. 体验Office 2013预览版
  2. 本地环境的搭配及安装配置
  3. ACM入门之【字典树/Trie】
  4. python import_Python中import机制
  5. Nginx反向代理为什么能够提升服务器性能?
  6. MMIX机器简要介绍
  7. 简述JAVA线程调度的原理,Rxjava原理(二)--线程调度
  8. Go embed 简明教程
  9. Ubuntu16.04下 shell脚本中C语言形式的for循环用法
  10. Uber柳甄:Uber中国独立核算 谋求国内A股上市
  11. 使用IDM继续下载会话过期的文件
  12. Git 报错:error: The requested URL returned error: 401 Unauthorized while accessing
  13. 谷歌浏览器扩展程序XDM_如何下载和安装扩展程序?
  14. 定性分析 or 定量分析
  15. 人工智能:python 实现 第十章,NLP 第一天 入门介绍及使用stemming还原词汇
  16. Verilog 交通灯控制器
  17. 全方位教你怎么看懂英国的车牌
  18. Android第三方库收藏汇总
  19. 半导体生产行业检测仪器远程在线式尘埃粒子计数器
  20. utf-8 python 乱码prinnt u_python处理一些乱码的中文文本时decode('utf-8')报错的处理

热门文章

  1. 从零说起: 6.网络编程
  2. Sen2Cor+SNAP处理Sentinel数据
  3. 抖音xlog算法解析
  4. HEVC编码结构:Slice和Tile
  5. 手游创业是新的风口吗
  6. 元镜头——手机相机的下一场革命
  7. c语言 老鼠乘法,c语言-老鼠走迷宫逐步理解
  8. Spring、SpringMVC
  9. 【爬虫+数据清洗+可视化分析】用Python分析哔哩哔哩“阳了“的评论数据
  10. C语言中如何测量各种变量的长度