- Python - 文本处理
- Python - 文本处理简介
- Python - 文本处理环境
- Python - 字符串不可变性
- Python - 对行排序
- Python - 段落重新格式化
- Python - 统计段落中的词语
- Python - 二进制ASCII转换
- Python - 字符串作为文件
- Python - 反向读取文件
- Python - 过滤重复单词
- Python - 从文本中提取电子邮件
- Python - 从文本中提取URL
- Python - 美化打印
- Python - 文本处理状态机
- Python - 首字母大写和翻译
- Python - 分词
- Python - 删除停用词
- Python - 同义词和反义词
- Python - 文本翻译
- Python - 替换单词
- Python - 拼写检查
- Python - WordNet 接口
- Python - 语料库访问
- Python - 词性标注
- Python - 组块和组块间隙
- Python - 组块分类
- Python - 文本分类
- Python - 二元语法
- Python - 处理PDF
- Python - 处理Word文档
- Python - 读取RSS feed
- Python - 情感分析
- Python - 搜索和匹配
- Python - 文本处理
- Python - 文本换行
- Python - 频率分布
- Python - 文本摘要
- Python - 词干提取算法
- Python - 受约束搜索
Python - 分词
在 Python 中,分词基本上是指将较大的文本内容拆分成较小的行、单词,甚至为非英语语言创建单词。nltk 模块本身内置了各种分词函数,可以在程序中使用,如下所示。
行分词
在下面的示例中,我们使用 sent_tokenize 函数将给定的文本分成不同的行。
import nltk sentence_data = "The First sentence is about Python. The Second: about Django. You can learn Python,Django and Data Ananlysis here. " nltk_tokens = nltk.sent_tokenize(sentence_data) print (nltk_tokens)
运行上述程序后,我们将得到以下输出:
['The First sentence is about Python.', 'The Second: about Django.', 'You can learn Python,Django and Data Ananlysis here.']
非英语分词
在下面的示例中,我们对德语文本进行分词。
import nltk german_tokenizer = nltk.data.load('tokenizers/punkt/german.pickle') german_tokens=german_tokenizer.tokenize('Wie geht es Ihnen? Gut, danke.') print(german_tokens)
运行上述程序后,我们将得到以下输出:
['Wie geht es Ihnen?', 'Gut, danke.']
单词分词
我们使用 nltk 中提供的 word_tokenize 函数对单词进行分词。
import nltk word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms" nltk_tokens = nltk.word_tokenize(word_data) print (nltk_tokens)
运行上述程序后,我们将得到以下输出:
['It', 'originated', 'from', 'the', 'idea', 'that', 'there', 'are', 'readers', 'who', 'prefer', 'learning', 'new', 'skills', 'from', 'the', 'comforts', 'of', 'their', 'drawing', 'rooms']
广告