Spark机器学习实战 (十一) - 文本情感分类项目实战

网友投稿 705 2022-05-29

0 相关源码


将结合前述知识进行综合实战,以达到所学即所用。文本情感分类这个项目会将分类算法、文本特征提取算法等进行关联,使大家能够对Spark的具体应用有一个整体的感知与了解。

1 项目总体概况

2 数据集概述

数据集

3 数据预处理

4 文本特征提取

官方文档介绍

提取,转换和选择特征

本节介绍了使用特征的算法,大致分为以下几组:

提取:从“原始”数据中提取特征

转换:缩放,转换或修改特征

选择:从中选择一个子集一组更大的特征局部敏感散列(LSH):这类算法将特征变换的各个方面与其他算法相结合。

(TF-IDF) 是在文本挖掘中广泛使用的特征向量化方法,以反映术语对语料库中的文档的重要性。

用t表示一个术语,用d表示文档,用D表示语料库。术语频率TF(t,d)是术语t出现在文档d中的次数,而文档频率DF(t,D)是包含术语的文档数T

如果我们仅使用术语频率来衡量重要性,那么过分强调经常出现但很少提供有关文档的信息的术语非常容易,例如: “a”,“the”和“of”。

如果术语在语料库中经常出现,则表示它不包含有关特定文档的特殊信息。

反向文档频率是术语提供的信息量的数字度量:

其中| D |是语料库中的文档总数。由于使用了对数,如果一个术语出现在所有文档中,其IDF值将变为0.

请注意,应用平滑术语以避免语料库外的术语除以零。

TF-IDF测量仅仅是TF和IDF的乘积

术语频率和文档频率的定义有几种变体。在MLlib中,我们将TF和IDF分开以使它们变得灵活。

HashingTF是一个转换器,它接受一组术语并将这些集合转换为固定长度特征向量。

在文本处理中,“一组术语”可能是一些单词。HashingTF利用散列技巧。通过应用散列函数将原始特征映射到索引(术语)。这里使用的哈希函数是MurmurHash 3.然后,基于映射的索引计算术语频率。这种方法避免了计算全局术语到索引映射的需要,这对于大型语料库来说可能是昂贵的,但是它遭受潜在的哈希冲突,其中不同的原始特征可能在散列之后变成相同的术语。为了减少冲突的可能性,我们可以增加目标特征维度,即哈希表的桶的数量。由于散列值的简单模数用于确定向量索引,因此建议使用2的幂作为要素维度,否则要素将不会均匀映射到向量索引。默认要素尺寸为218 = 262,144218 = 262,144。可选的二进制切换参数控制术语频率计数。设置为true时,所有非零频率计数都设置为1.这对于模拟二进制而非整数计数的离散概率模型特别有用。

CountVectorizer将文本文档转换为术语计数向量

IDF:IDF是一个Estimator,它适合数据集并生成IDFModel。 IDFModel采用特征向量(通常从HashingTF或CountVectorizer创建)并缩放每个特征。直观地说,它降低了在语料库中频繁出现的特征。

注意:spark.ml不提供文本分割工具.

在下面的代码段中,我们从一组句子开始。我们使用Tokenizer将每个句子分成单词。对于每个句子(单词包),我们使用HashingTF将句子散列为特征向量。我们使用IDF重新缩放特征向量;这通常会在使用文本作为功能时提高性能。然后我们的特征向量可以传递给学习算法。

import org.apache.spark.ml.feature.{HashingTF, IDF, Tokenizer} val sentenceData = spark.createDataFrame(Seq( (0.0, "Hi I heard about Spark"), (0.0, "I wish Java could use case classes"), (1.0, "Logistic regression models are neat") )).toDF("label", "sentence") val tokenizer = new Tokenizer().setInputCol("sentence").setOutputCol("words") val wordsData = tokenizer.transform(sentenceData) val hashingTF = new HashingTF() .setInputCol("words").setOutputCol("rawFeatures").setNumFeatures(20) val featurizedData = hashingTF.transform(wordsData) // alternatively, CountVectorizer can also be used to get term frequency vectors val idf = new IDF().setInputCol("rawFeatures").setOutputCol("features") val idfModel = idf.fit(featurizedData) val rescaledData = idfModel.transform(featurizedData) rescaledData.select("label", "features").show()

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

5 训练分类模型

代码

data.show(false)

println(neg.count(),data.count())//合并

result.show(false)

println(s""“accuracy is $accuracy”"")

Spark机器学习实战 (十一) - 文本情感分类项目实战

6 Spark机器学习实践系列

基于Spark的机器学习实践 (一) - 初识机器学习

基于Spark的机器学习实践 (二) - 初识MLlib

基于Spark的机器学习实践 (三) - 实战环境搭建

基于Spark的机器学习实践 (四) - 数据可视化

基于Spark的机器学习实践 (六) - 基础统计模块

基于Spark的机器学习实践 (七) - 回归算法

基于Spark的机器学习实践 (八) - 分类算法

基于Spark的机器学习实践 (九) - 聚类算法

基于Spark的机器学习实践 (十) - 降维算法

基于Spark的机器学习实践(十一) - 文本情感分类项目实战

X 联系我

Java交流群

博客

知乎

Github

spark 机器学习

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:关于KrakenCryptor(2.0.7)勒索病毒的安全预警
下一篇:基于Spark的机器学习实践 (九) - 聚类算法
相关文章