现在导出的错误已经得到修正,错误原因在于 Next() 中误把 $this->hash_prime写成了$this->hash_base
网址和EMAIL tsearch都可以配置token的切分方法,可以整个切,也可以分开 html标签 tsearch也有一个tag token可以配置去不去徐
...://www.ftphp.com/scws/down/scws-1.1.1.tar.bz2 附带修正了 php写的 xdb 导入导出工具, 下载 http://www.ftphp.com/scws/down/phptool_for_scws_xdb.zip
...xhausted (tried to allocate 1046898225 bytes) in /var/www/html/search/dict/xdb.class.php on line 638 我也碰到同樣的問題,換一台主機依舊有問題 謝謝 ,問題是 638 行 : $rec['value'] = fread($this->fd, $rec['vlen']); 不可能超過 1gb 我有看到 gen_dict.c 但是是...
存在了这个文件,需要删掉。 第二个问题是:php.ini 中的内存限制过小,修改就可以了。
还有就是内存的问题,因为我希望在服务器端有个自动生成词库的功能,命令行方式不是很方便。 主要是用机器先自动分词,人工发现不合理,再把新词增加进去。
但网址和EMAIL如果这样切,也太粗糙了吧。要全部匹配才能检索到,输入 EMAIL 的前段或网址的一部分均检索不到了。 至于消除 HTML 标签,这不应该是分词的事哦
我打印了下611行的$rlen的值,发现在32位linux下,出错的时候$rlen的值已经变成了-774261301 这显然不是一个正常的值。 所以程序会报告fread错误,同时也导致了后面的一系列错误!
...非常想知道答案 效率第一 = = 是不是要用 gen_dict.c 创建XDB比较好 还是其他原因?
...xhausted (tried to allocate 1046898225 bytes) in /var/www/html/search/dict/xdb.class.php on line 638 我也碰到同樣的問題,換一台主機依舊有問題 謝謝 ,問題是 638 行 : $rec['value'] = fread($this->fd, $rec['vlen']); 不可能超過 1gb 我有看到 gen_dict.c 但是是...