RT,小弟对原理很是好奇,不知道是怎么算出来。地址如下: http://www.ftphp.com/scws/demo/a.php
在linux下装了scws1.1.2,并且装了php5的扩展,但是发现在分词时对于较长的字符串会自动截取前多少个字符进行切分,不知这是不是一个BUG?
请仔细看说明,$so->get_result() 并不是一次调用,需要多次调用直到返回FALSE 例子1. 使用类方法分词
一直用的sphinx,想体验一下xunsearch。但是不解,xunsearch是否支持时下很火的lbs搜索呢? sphinx配置: [code] sql_query_range = SELECT IFNULL(MIN(`id`), 1), IFNULL(MAX(`id`), 1) FROM `fandian` sql_query = SELECT `id`,`type`, `name`, RADIANS(`lat`) AS `latitude`, RAD...
我举例说明 比如索引库有1000万份文档了 这些文档有共同的特征 然后就是搜索一些共性的关键字有200万个结果 比如一页显示10条 一般来说,作为一个搜索的话让点到20万页是毫无意义的 假设我们这里限制到100页 我发...
我看了一下scws_set_multi,似乎不能解决我得问题。我再描述一下,打个比方,我要切分一段有200个汉字的字符串,但是返回的分词数组只包含了前100个汉字的词。[hr] 我还是把代码贴出来吧。 从返回的分词数组可以看出来...
你默认的字符集是 gbk吧?请在 add_dict 前先调用 $so->set_charset('utf8'); 或者直接用 $so = scws_new('utf8');