...也碰到同樣的問題,換一台主機依舊有問題 謝謝 ,問題是 638 行 : $rec['value'] = fread($this->fd, $rec['vlen']); 不可能超過 1gb 我有看到 gen_dict.c 但是是有有繁體utf8的 dict.txt 可以讓我自行編輯 麻煩 hightman 大大 [/quote] 这样的错...
... } s->off = off; return cnt; }[/quote] 如果xattr是NULL,返回的将会是0 另外,scws_get_words返回的包括标点,不知道是否是设计的原意?
...明,希望你有时间能帮我解答一下。 现在自定义分词,是不是只能在索引的时候进行,我的项目中需要对内容进行自动分词,用于生成文章的tag,我自己给定了一个用户自定义词库,在$tokenizer->getTops()时,不能找出我想要...
...url]http://www.xunsearch.com/download/xs_php_manual.chm[/url] Xunsearch 是免费开源的专业全文检索解决方案,旨在帮助一般开发者针对既有的海量数据,快速而方便地建立自己的全文搜索引擎。全文检索可以帮助您降低服务器搜索负荷、极大...
你好 我在centos上安装时候失败 下面是我的安装过程 wget http://www.ftphp.com/scws/down/scws-1.1.7.tar.bz2 tar jxvf scws-1.1.7.tar.bz2 cd scws-1.1.7 ./configure --prefix=/usr/local/scws-1.1.7 make make install ls -al /usr/local/scws-1.1.7/lib/libscws.la /usr/local/sc...
...需要加载load词典,这样势必会浪费很多内存资源,特别是当词典比较大的时候? 能否把只读的词典部分从scws_st结构体中独立出来,这样只需要在主线程中load词典,而其它线程可以共享这个词典进行分词,比如: typedef struc...
[quote='bigxu' pid='7764' dateline='1399604012'] index=self 是对的。 你的cat_id是数字吗? getAddTerms 打印出看下。 如果有index,有term。查不出应该是不可能的. [/quote] [quote] $search->setQuery($array['word'])->setSort($array['sort'])->setLimit($array['limit']...
...了下面这些数据 1,关于 xunsearch 的 DEMO 项目测试,项目测试是一个很有意思的行为!,1314336158 2,测试第二篇,这里是第二篇文章的内容,1314336160 3,项目测试第三篇,俗话说,无三不成礼,所以就有了第三篇,1314336168
我测试过make_xdb_file.php,明显是有错误码的,提示93行处的TF、IDF、Attr不存在,这明显示是:“[b]对分词再分词[/b]”带来的结果,在65行处看到only support GBK dictionary 到80行,这是不参对utf-8字符处理的,不能对中文(中英混合)字...