用了最新版也不行. 如"冰毒"scws_has_word判断不出来 , 真奇怪 还有什么问题导致的呢?
HM,您好,我目前使用自定义词库实现分词,但是通过scws_get_top5()方法获取数据的时候(字母+数字大于等于3个的时候也会返回)。求过滤方案。 $sh = scws_open(); scws_set_charset($sh, 'utf8'); scws_set_dict($sh, './dict.txt', SCWS_XDICT_TXT); scws_...
txt词库其实也是转换成XDB再调用的,不用担心性能。 你合并词典很简单啊,把 dict.utf8.xdb 导出来嘛
词库在 $prefix/etc/dict.utf8.xdb 您用制作好的 scws 词库支替换它即可,词库生成办法要看看 scws 的帮助,此外字符集必须是 UTF-8
[quote='hightman' pid='8876' dateline='1333164684'] txt词库其实也是转换成XDB再调用的,不用担心性能。 你合并词典很简单啊,把 dict.utf8.xdb 导出来嘛 [/quote] 谢谢hm。还是更加期望加上直接入字典库的功能。这样更加方便,就是不知...
我也发现是这样的问题,我现在最新1.1.7,自定义一个词库后(),原词库就没有用了。 比如: new.txt(这个文件里,试过一个词也没有、添加个别词两种情况); $so = scws_new(); //$so->add_dict('', SCWS_XDICT_TXT); $so->send_text('广州...