博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
ANSJ 分词 用户自定义分词加载顺序
阅读量:7004 次
发布时间:2019-06-27

本文共 1022 字,大约阅读时间需要 3 分钟。

hot3.png

ToAnalysis 精准分词

精准分词是Ansj分词的店长推荐款

它在易用性,稳定性.准确性.以及分词效率上.都取得了一个不错的平衡.如果你初次尝试Ansj如果你想开箱即用.那么就用这个分词方式是不会错的.

DicAnalysis 用户自定义词典优先策略的分词

用户自定义词典优先策略的分词,如果你的用户自定义词典足够好,或者你的需求对用户自定义词典的要求比较高,那么强烈建议你使用DicAnalysis的分词方式.

可以说在很多方面Dic优于ToAnalysis的结果

NlpAnalysis 带有新词发现功能的分词

nlp分词是总能给你惊喜的一种分词方式.

它可以识别出未登录词.但是它也有它的缺点.速度比较慢.稳定性差.ps:我这里说的慢仅仅是和自己的其他方式比较.应该是40w字每秒的速度吧.

个人觉得nlp的适用方式.1.语法实体名抽取.未登录词整理.只要是对文本进行发现分析等工作

IndexAnalysis 面向索引的分词

面向索引的分词。顾名思义就是适合在lucene等文本检索中用到的分词。主要考虑以下两点

  • 召回率
    • 召回率是对分词结果尽可能的涵盖。比如对“上海虹桥机场南路” 召回结果是[上海/ns, 上海虹桥机场/nt, 虹桥/ns, 虹桥机场/nz, 机场/n, 南路/nr]
  • 准确率
    • 其实这和召回本身是具有一定矛盾性的Ansj的强大之处是很巧妙的避开了这两个的冲突 。比如我们常见的歧义句“旅游和服务”->对于一般保证召回 。大家会给出的结果是“旅游 和服 服务” 对于ansj不存在跨term的分词。意思就是。召回的词只是针对精准分词之后的结果的一个细分。比较好的解决了这个问题

BaseAnalysis 最小颗粒度的分词

基本就是保证了最基本的分词.词语颗粒度最非常小的..所涉及到的词大约是10万左右.

基本分词速度非常快.在macAir上.能到每秒300w字每秒.同时准确率也很高.但是对于新词他的功能十分有限.

功能统计

名称 用户自定义词典 数字识别 人名识别 机构名识别 新词发现
BaseAnalysis X X X X X
ToAnalysis X X
DicAnalysis X X
IndexAnalysis X X
NlpAnalysis

 

 

转载于:https://my.oschina.net/u/1178126/blog/1825761

你可能感兴趣的文章
Qt编写的RTSP播放器+视频监控(vlc版本)
查看>>
一起谈.NET技术,关于Expression Tree和IL Emit的所谓的"性能差别"
查看>>
CGI, mod_perl, PHP, JSP性能比较
查看>>
密码库 链接
查看>>
java中Double的isInfinite()和isNaN()
查看>>
JS组件系列——BootstrapTable+KnockoutJS实现增删改查解决方案(四):自定义T4模板快速生成页面...
查看>>
关于“鸡脚神”的看法
查看>>
vsftpd服务器
查看>>
枚举的基础类型
查看>>
在CentOS上安装svn服务器
查看>>
可爱的python测试开发库(python测试开发工具库汇总)
查看>>
python返回汉字的首字母
查看>>
linux下yum更新出现HTTP Error 404 NOT FOUND错误的办法
查看>>
Nginx负载均衡配置实例
查看>>
Percona-mysql-5.5.38双主复制&mmm配置
查看>>
spring高级 之 拦截器
查看>>
Python(四)装饰器、迭代器&生成器、re正则表达式、字符串格式化
查看>>
我的友情链接
查看>>
多个viewpager可能产生的问题
查看>>
理解自组织:敏捷里的自组织团队都是骗人的
查看>>