ubuntu13.04是用amd64.iso在虚拟机里安装的 分词几乎都是un 而在另一个32位ubuntu上则正常 字典是完好的的xdb 顺便问下有无txt格式的字典下载,用scws_gen_dict生成不知道行否
通过文档获取分页的返回数据的时候发现setLimit会少返回一个数据,setlimit(10)的话会只返回9个数据,通过count能够确认确实有>10个数据(大约30条) 有别人遇到这个问题吗?[hr] 如果数据量>=100的时候又能够返回确定的10条数据, 是searchd...
[quote='seanliu' pid='1661' dateline='1355902543'] 正在为一个案例纠结: 有两张表: 搭配表: //collocation col_id //搭配ID col_title //搭配标题 col_text //搭配说明 商品表: //items item_id //商品ID item_title //商品标题 item_text //商品说明 i...
...么做呢,谢谢了。[hr] 如何才能 搜索千 把 千年这一类是一个词的也能搜得到 千万 千年 千* 我搜索 那 出现的 是不是完整词的 比如等到胜利那一天,都市那点事,世界那麽大,帕那索斯博士的奇幻秀。。。可是我想搜的 “...
终于找到一个自动分词系统,由于不能确定服务器是否加载这个分词的dll文件 则使用PSCWS4进行使用 可是pscws4类中并没有add_dict函数 我用set_dict设置自己自定义字典.txt文件 一直报错 这个怎么解决 就是加载自定义的txt字典 thank u
需要增加一个新词“中国梦”。 使用的php XDB工具,增加词库后导入生成xdb文件。 重新生成coreseek的索引 索引的时候还是搜不出来这个词。 我确认使用的是utf-8 no-bom头的格式。 请问如何解决。谢谢
你编译的SCWS.SO和所用的PHP不是同一个版本。。。重新用对应配套的 phpize php-config 吧,如果你的系统有默认装的早先的php 请在 ./configure 中明确的用 --with-php-config=.... 指定真正在用的PHP-CONFIG