[quote='snakeyasin' pid='3834' dateline='1289616234'] [quote='hightman' pid='3425' dateline='1264745243'] 2010年,scws 长了一岁,加上了翘首以盼的删减词库功能,该功能通过变通的办法解决,并非直接修改核心词库。下面详细介绍一下 scws-1.1.0 的更新...
...词是放在数据库里面(为了方便增删改),如果每次加载词典都要把禁止词写到临时文件,然后添加,觉得有点过于麻烦。是否可以提供添加单个或多个词的函数?
[quote='hightman' pid='3291' dateline='1248583748'] [quote='etbobhwang' pid='3283' dateline='1248344366'] PHP Fatal error: Allowed memory size of 536870912 bytes exhausted (tried to allocate 1046898225 bytes) in /var/www/html/search/dict/xdb.class.php on line 638 我也碰到同樣的問題,換...
我刚才用统一的词性生成了一个词典,但同一个文件, 生成的大小怎么不同呢, 第一次: 积分 20.0 20.0 @ 中间我是用一个空格格开的,生成后有4M, 第二次: 积分 20.0 20.0 @ 用的是原dict.xdb导出txt后的格式,生成后有10M, ...
...操作,才能使得这个词不被分开 我看到有用户自定义词典 dict_user.txt 我在里面写了: 米兔车贴 1.0 1.0 ! 但还是被分了 还看到一个stopwords.txt的文件,但将米兔车贴放到里面了也还是会被分 。。。
...。它为中文而编写,支持 gbk 和 utf-8 字符集,适当的修改词典后也可以支持非中文的多字节语言切词(如日文、韩文等)。除分词外,还提供一个简单的关键词汇统计功能,它内置了一个简单的算法来排序。本扩展内部直接绑绑...
...词是放在数据库里面(为了方便增删改),如果每次加载词典都要把禁止词写到临时文件,然后添加,觉得有点过于麻烦。是否可以提供添加单个或多个词的函数? [/quote] 现在没有这个需求了,因为我的非法词库里面有英文...
...置分词时所用编码 $so->set_charset('utf8'); //设置分词所用词典(此处使用utf8的词典) $so->set_dict('/usr/local/scws/etc/dict.utf8.xdb'); //设置分词所用规则 $so->set_rule('/usr/local/scws/etc/rules.utf8.ini'); //分词前去掉标点符号 $so->set_ignore(false); ...
... set_dict 和 set_rule 系统会自动试调用 ini 中指定路径下的词典和规则文件 $scws->send_text("这里没有调用 set_dict 和 set_rule 系统会自动试调用 ini"); $list = $scws->get_tops(3); settype($list, 'array'); foreach ($list as $tmp) { ec...
...ld\dede\getwen.php on line 5 不加呢,又会分词不成功,貌似是词典的问题,能不能告诉我哪里做错了呢? 忘记说了,我用的编码都是utf8 还有就是如果我用 $so->set_dict('C:/Program Files/scws/etc/dict.xdb'); $so->set_rule('C:/Program Files/scws/etc/rul...