【推荐】中文处理(BiLSTM分词)工具包FoolNLTK

2017 年 12 月 27 日 机器学习研究会
                                                                                                                                                                                      
点击上方 “机器学习研究会”可以订阅



摘要
 

转自:爱可可-爱生活

中文处理工具包

特点

  • 可能不是最快的开源中文分词,但很可能是最准的开源中文分词

  • 基于BiLSTM模型训练而成

  • 包含分词,词性标注,实体识别, 都有比较高的准确率

  • 用户自定义词典

Install

pip install foolnltk

使用说明

分词
import fool

text = "一个傻子在北京"
print(fool.cut(text))
# ['一个', '傻子', '在', '北京']

命令行分词

python -m fool [filename]
用户自定义词典

词典格式格式如下,词的权重越高,词的长度越长就越越可能出现, 权重值请大于1

难受香菇 10
什么鬼 10
分词工具 10
北京 10
北京天安门 10

加载词典

import fool
fool.load_userdict(path)
text = "我在北京天安门看你难受香菇"print(fool.cut(text))# ['我', '在', '北京天安门', '看', '你', '难受香菇']

删除词典

fool.delete_userdict();
词性标注
import fool

text = "一个傻子在北京"
print(fool.pos_cut(text))
#[('一个', 'm'), ('傻子', 'n'), ('在', 'p'), ('北京', 'ns')]
实体识别
import fool 

text = "一个傻子在北京"
words, ners = fool.analysis(text)
print(ners)
#[(5, 8, 'location', '北京')]

注意

  • 暂时只在Python3 Linux 平台测试通过


链接:

https://github.com/rockyzhengwu/FoolNLTK


原文链接:

https://m.weibo.cn/1402400261/4188834948484282

“完整内容”请点击【阅读原文】
↓↓↓
登录查看更多
6

相关内容

将一个汉字序列切分成一个一个单独的词
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
216+阅读 · 2020年4月26日
Jiagu:中文深度学习自然语言处理工具
AINLP
90+阅读 · 2019年2月20日
Arxiv
4+阅读 · 2018年2月13日
VIP会员
Top
微信扫码咨询专知VIP会员