NLTK-004:加工原料文本

网友投稿 723 2022-05-29

从网络和硬盘访问文本

编号 2554 的文本是《罪与罚》的英文翻译,我们可以用如下方式访问它。

from urllib import request url = "http://www.gutenberg.org/files/2554/2554.txt" response = request.urlopen(url) raw = response.read().decode('utf8')

1

2

3

4

(如果是404之类的,得找个代理外网IP,下面访问的都一样… )

所以假设获取到了内容。变量raw是这本书原始的内容,包括很多我们不感兴趣的细节,如空格、换行符和空 行。请注意,文件中行尾的\r 和\n,是 Python 用来显示特殊的回车和换行字符的方式

我们要对其进行分词操作,产生一个词汇和标点符号的链表。

tokens = nltk.word_tokenize(raw)

1

我们现在采取进一步的步骤从这个链表创建一个 NLTK 文本

text = nltk.Text(tokens)

1

我们可以进行我们在之前看到的所有的其他语言的处理,也包括常规的链表操作,例如切片:

text[1024:1062]

1

处理HTML

网络上的文本大部分是 HTML 文件的形式。 HTML 的全部内容包括: meta 元标签、图像标签、map 标

签、JavaScript、表单和表格。

我们可以使用BeautifulSoup或者其他库来从HTML中提取文本,然后我们可以对原始文本进行分词:

from bs4 import BeautifulSoup raw = BeautifulSoup(html).get_text() tokens = nltk.word_tokenize(raw)

1

2

3

你可以选择你感兴趣的标识符,按照前面讲的那样初始化一个文本。

tokens = tokens[110:390] text = nltk.Text(tokens) text.concordance('gene')

1

2

3

访问单个字符

我们可以计数单个字符。通过将所有字符小写来忽略大小写的区分,并过滤掉非字母字符。

from nltk.corpus import gutenberg raw = gutenberg.raw('melville-moby_dick.txt') fdist = nltk.FreqDist(ch.lower() for ch in raw if ch.isalpha()) fdist.most_common(5) fdist.plot()

1

2

3

4

5

使用 Unicode 进行文字处理

Unicode支持超过一百万种字符。每个字符分配一个编号,称为 编码点。在 Python 中 ,编码点写作\uXXXX 的形式,其中 XXXX是四位十六进制形式数。

解码:将文本翻译成Unicode;

编码:将Unicode 转化为其它编码的过程;

从文件中提取已编码文本 :

假设我们有一个小的文本文件,我们知道它是如何编码的。例如:polish-lat2.txt 顾名思义是波兰语的文本片段(来源波兰语 Wikipedia;可以在 http://pl.wikipedia.org/wiki/Biblioteka_Pruska中看到)。此文件是 Latin-2 编码的,也称为 ISO-8859-2。nltk.data.find()函数为我们定位文件。

path = nltk.data.find('corpora/unicode_samples/polish-lat2.txt')

1

codecs模块:提供了将编码数据读入为Unicode 字符串和将Unicode 字符串以编码形式写出的函数。

codecs.open()函数:encoding 参数来指定被读取或写入的文件的编码。

f = open(path, encoding='latin2') for line in f: line = line.strip() print(line)

1

2

3

NLTK-004:加工原料文本

4

HTML

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:ARM Linux 环境 c程序设计
下一篇:一个HBase偶现Get慢查询responseTooSlow的分析定位
相关文章