该问题已被锁定!
5
关注
4214
浏览

中文分词过程中去除无意义词语的词库哪里有分享?

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠
帅驴 初级会员 用户来自于: 广东省深圳市
2012-09-16 23:18
@lym62php的可以用么?
lym62 初级会员 用户来自于: 广东省深圳市
2012-08-13 22:57
开源中国有不少,http://www.oschina.net/project/tag/264/segment 另有一个“海量中文智能分词”,好像腾讯用的就是这个,不过不开源,是商业版的
麻辣兔子 注册会员 用户来自于: 上海市长宁区
2012-08-13 18:20
搜一下停止词库,看看有没有开源的

关于作者

问题动态

发布时间
2012-08-13 12:06
更新时间
2012-09-16 23:18
关注人数
5 人关注

相关问题

几点使用过程中的建议
这套程序有没有用到分词啊?
升级过程中,出现如下错误,怎么处理?求解
英文版的问题:模板注释有中文
机械分词文件那么大,对效率影响大吗?
中文字符的URL访问出错
lnmp如何启用中文URL?
中文话题,点击过去说无此分类
想做一个双语中文/英文切换功能,根据传入的参数例如l/en-us来判断调用哪个版本
含有中文或中文汉字组合的好友“专注”后,总是提示错误?