每天在xunsearch目录下,都会生成1个G的core.xxxxx,如果不是硬盘空间耗尽的话,恐怕还会生成更多,请问如何解决呢?
[quote='hightman' pid='3715' dateline='1284692742'] 哦可能ecshop用的不是GBK的?你下载的默认应该 是gbk 的词典。 [/quote] 谢谢您,已经搞定了……
啊 sorry,下次注意发对板块。应该是不接受连接,查询的并发不是很高。 我应该提供什么信息,能帮助查明原因的?
从结果看应该是 scws_set_dict(s, "/usr/local/etc/dict_chs_gbk.xdb", SCWS_XDICT_MEM); 这句话出了问题, 也就是可能词典不正确. 但这个词典目前测试在64位系统下也是可以正常工作的, 检查一下词典的字节数是不是没有下载完整.
...数据,然后根据hash_196字段按匹配度排序 我对xlen分词器不是很了解 这个排序mysql可以实现 但是mysql分割后的位置不是固定的 project.name = hash project.default_charset = UTF-8 server.index = /dev/shm/xs-indexd.sock server.search = /dev/shm/xs-searchd.soc...
XDB不可轻易修改, 需要借助工具转换纯文本为xdb, 添加和修改词不太方便 还有二楼的代码是手册里的讲解,并不是要你抄进去. scws_get_tops() 返回的 attr 带有乱码是因为 windows 的 dll 较早所以才会有这样的BUG, 问题不大
为确保服务器性能,采用空闲时写入。但不至于1-2小时,是不是有其它情况。可以尝试: util/Indexer.php --flush
[quote='KnightE' pid='334' dateline='1323542477'] 应该尽量通过xs得到id,然后根据id批量从DB/NOSQL取信息,直接从xs取信息不是个好主意。 [/quote] 取信息可以从DB/NOSQL取信息,但是涉及到从XS过滤 就是个问题了