词库没有正确加载,你检查一下 /usr/local/scws/etc/ 下的 .xdb 的文件属性,默认.tar.bz2 解开有可能是600,建议 chmod a+r /usr/local/scws/etc/*
extension_dir 的值应当以/结尾吧 而且你应该设在全局的extension_dir为宜. 然后看看你的这个extension_dir底下是否确实存在这些文件. 这个默认的目录名和你编译PHP的参数有关的, 如果你是照抄自别人的说明有可能会不对. 在编译安...
debug了一下,发现是在class XDB_R::_check_header()里面执行 if ($fstat['size'] != $hdr['fsize']) return false就返回了。请问这说明什么问题呢?[hr] 事实上,$hdr['fsize'] = 13245833, 而$fstat['size']就是dict.xdb文件的大小4497408 ,那为什么$hdr['fsize']会等...
[quote='admin' pid='2688' dateline='1291049346'] 词库没有正确加载,你检查一下 /usr/local/scws/etc/ 下的 .xdb 的文件属性,默认.tar.bz2 解开有可能是600,建议 chmod a+r /usr/local/scws/etc/* [/quote] 非常感谢,被这个问题折磨了1天,原来是权限问题...
...它方面的用法和 Unix 版本完全一样,注意此 dll 文件仅是分词引擎,并不包括分词规则文件和词典,请从已发布的 scws-pre 版本中提取词典和 rule 文件。
...面的排序完全改变了 目前的情况是我导出TXT在创建XDB 分词速度比之前慢了2倍 这个问题很想知道原因T-T XDB->TXT这似乎是一个很难逆转或者是无法逆转的过程 (我只是感觉到导出文件的TXT可能有问题)或者创建的XDB文件有...
...面的排序完全改变了 目前的情况是我导出TXT在创建XDB 分词速度比之前慢了2倍 这个问题很想知道原因T-T XDB->TXT这似乎是一个很难逆转或者是无法逆转的过程 (我只是感觉到导出文件的TXT可能有问题)或者创建的XDB文件有...
...33cc]0. 概述[/color][/size][/b] Libscws 代码是当前 SCWS(简易中文分词) 算法使用C语言编写的链接库,目前仅基于 Unix 族的操作系统,可能必须适当修改才能运行在 Windows 平台中。这套 scws 库没有外部扩展依赖,代码力争简洁高效,针对...
...是SCWS-1.2.2 我用自己的词库替换了dict.utf8.xdb,然后尝试分词“朝鲜近日播放的一个纪录片中,发现”,发现“纪录片中”在分词结果中丢失了 Array ( [word] => 朝鲜 [off] => 0 [len] => 6 [idf] => 0 [attr] => @ ) Array ( [word] => 近日 [off] => 6 ...
...选] SCWS 是 Simple Chinese Words Segmentation 的缩写(简易中文分词系统)。 它是一套基于词频词典的机械中文分词引擎,它能将一整段的汉字基本正确的 切分成词,因为词是汉语的基本语素单位,而书写的时候不像英语会在词之间 ...