搜索

大约有 1,184 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0993秒)

1101.RE: 特苦恼,今天想给xdb加词使劲报错。感谢帮忙看看

发布时间:2013-08-24 01:08 t By 一只死菜鸟

弄了 半夜 不出那个提示之后 出现这个提示 INFO: Loading text file data ... Fatal error: Allowed memory size of 31457280 bytes exhausted (tried to allocate 513 bytes) in E:\www\make_xdb_file.php on line 49

1102.添加自定义词库的问题

更新时间:2010-06-03 16:06 t By xiaolan

..., 如果手动添加词库, 自定义的就没有了。。 环境: php5.3.2 所有的都是用的utf-8编码。权限也改过。。 在不使用自定义词库的时候都是正常的 找不到原因了。。 谢谢 帮忙看看。。

1103.RE: Hightman 你好,我在编译scws时出现了问题

发布时间:2009-06-22 17:06 t By aaronyou

我也遇到同样问题 mysql版本5.1.30 scws-1.0.3.tar.bz2 打补丁时信息如下 patching file include/mysql_com.h patching file sql/item_func.cc patching file include/mysql.h.pp 应该OK 了 参考文章http://www.hightman.cn/bbs/showthread.php?tid=503 请指引,谢谢

1104.RE: 对医院的分词不太理想

更新时间:2010-09-07 18:09 t By hightman

...l.txt', SCWS_XDICT_TXT); 如果您不会制作词典可以从 http://www.ftphp.com/scws/download.php 重新下载 [code] ; /path/to/del.txt 民医院 1 1 ! [/code]

1105.RE: 索引文件还在,但是无法正常检索,只能检索最新的数据

发布时间:2014-06-17 16:06 t By fentoo

...看是不是坏了。 还有你可以试试用命令行的 util/Quest.php --db=db_a,db 这样强制指定DB库来测试一下呢? [/quote] 原來的數據已經全部被折騰壞了,現在正在重新生成索引。

1106.RE: addRange后count不准确

更新时间:2014-10-07 22:10 t By xilin

...以确认是bug,我有一个同事独立安装xapian和scws,利用lib/xs.php的内容,作了修改,得出的值明显是准确的.也就是xapian本身可以得出相对正常的结果,但是使用xunsearch后,在多重排序后,结果不正确

1107.RE: 实时加载字典,服务器严重吃不消,有没有办法?

发布时间:2009-07-15 23:07 t By hightman

...然有啊,你看一下说明吧. 我不清楚你用的是什么方式,是PHP还是c的API, set_dict 时的第二参数可以指定将词典读入内存的.

1108.RE: xs-import进程是干啥用的?占CPU还不少~

发布时间:2011-10-25 11:10 t By hightman

xs-import 才是真正同步导入的进程,不要杀死。写入索引时占用CPU确实很高,这是正常的。 PHP 脚本上显示的完成只是将你的数据全部保存到缓存区,并不是真正写入到索引数据库中。

1109.RE: 索引到一大半的时候出错退出,有没有办法继续?

发布时间:2011-10-26 17:10 t By tisswb

[quote='hightman' pid='121' dateline='1319514186'] Indexer.php 你可以在 sql 语句中指定 offset 和 limit --sql="select * from cdb_posts limit 999999999999 offset 5000000" 类似这样,OFFSET 不能单用必须配合 limit [/quote] 呵呵 原来如此 非常感谢,数据已经导...

1110.RE: 来源为数据库,更新索引是抛出错误

发布时间:2011-11-14 12:11 t By winsky027

你好,感谢你的回复 以前使用sdk/util中的index.php重建索引是没有出现错误的,但随着数据库数据越来越多,就出现了这个错误,怀疑可能是连接超时导致的,就把180行这里原有的timeout设置成1000,错误依旧存在,昨天在论坛看了...

  • 时间不限
  • 按相关性排序