最近在做个项目,用到了分词,找了一下,发现这个,很好. 遇到一个问题, 命令导出xdb到txt,只导出了这个 # WORD TF IDF ATTR 请问这是咋回事
...search->setQuery($serachtext); $count = $search->Count(); [hr] 还有个问题,搜索知识产权,给出统计数据386条,结果翻页到第20页,统计数据变为185条。 滴17页,每页10条 - - - - - - 滴20页,每页10条 - - - ...
.../www.hightman.cn/bbs/images/common/back.gif[/img][/url] 我也是同样的问题,支持顶下,怎么解决呢? Warning: file_get_contents(sample.utf8.txt) [function.file-get-contents]: failed to open stream: No such file or directory in E:\AppServ\www\ceshi\index.p ... [/quote] 这个只是...
存在了这个文件,需要删掉。 第二个问题是:php.ini 中的内存限制过小,修改就可以了。
还有就是内存的问题,因为我希望在服务器端有个自动生成词库的功能,命令行方式不是很方便。 主要是用机器先自动分词,人工发现不合理,再把新词增加进去。
感谢H大回复,好像是你说的这个问题。 曾经我以为这个scws是国外高人开发的,最近才发现国内的牛人。作为苦逼的程序一员,你就是我心中的刘德华了。
解决了,是Greta的问题影响到了scws_free_tops,将项目设置改为MFC静态连接就可以了
ln -s /usr/local/scws/lib/libscws.so.2.0 /usr/local/scws/lib/libscws.so 编译很顺利,就遇到这一个问题:D
...['size'] != $hdr['fsize']) return false就返回了。请问这说明什么问题呢?[hr] 事实上,$hdr['fsize'] = 13245833, 而$fstat['size']就是dict.xdb文件的大小4497408 ,那为什么$hdr['fsize']会等于13245833呢?
...8.xdb'); 再次运行,分词正确了[hr] 不过,又出现了奇怪的问题,我在原来的测试文本后面随便加了两个字母,分词又不对了。我继续增加字母,有时候对,有时候不对。(GBK版本)