...数:15,419,976 条[/b] 分为2个库,一个库580W,另外一个库就是剩下的。 索引文件大小:第1个库(14.3G) 第2个库:(30.1G) -------------------- [b]服务器配置(这个是在虚拟机下面的配置):[/b] CPU:Intel(R) Xeon(R) CPU E3-1230 V2 @ 3.30GHz...
看了一下基本上说内置了中文分词 内置中文分词 好处我想应该索引会相对的小一些 但是坏处就是要维护词库 新出词语不用立马根据 所以问一下是否支持一元分词 这样就可以实现类似mysql like方式的搜索了
很感谢,大致看了版主发布的scws的文件包,很规范,接口和扩展都做的很少,不过就是注释少了点,对我等菜鸟,看的不是很明白!:D 想请问版主一个问题,分词分出来后,怎么选择一个句子的关键词是哪些!
...是需要建个内网的搜索引擎,包括网页的抓取,搜索等,就是没有现有的数据。请问能够用Heritrix爬虫抓取网页保存到mysql,然后用xunsearch进行搜索吗?如果可以的话,这个系统要怎么设计呢?希望各位大神赐教。。。。谢谢了...
在使用scws分词的时候,如果输入40多个“卡”字,最后分出来的那个词少了一个字节,就是说在utf8下原本3字节的一个“卡”字,变成了两个字节,形成了一个乱码。在线测试也会出现这种情况,大家怎么解决啊???
[quote='mengfanchao' pid='100' dateline='1319168964'] 你的8383 服务没有起来。要么就是 selinux 设置有问题。 [/quote] 好吧~重启了服务器忘记跑xunsearch的服务了,现在可以了 ~非常感谢~~
我已经排查了 nginx 和 php 等所有可能的cache 。真的没有了 就是死活不更新。 Hm 真的不行,那个字典 完全看不出啥问题