搜索

大约有 1,288 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1005秒)

981.RE: daemon server(linux后台程序)和embed(库的形式嵌入程序中)

发布时间:2010-12-10 15:12 t By hightman

其实主要意思是看你的应用是否持续调用分词功能。持续调用就用mem的方式

982.RE: 仍然是第一个例子的问题,怎么连“中国人”都没分出来?

发布时间:2013-04-15 11:04 t By hightman

词典确实存在吗?对执行PHP的用户可读吗?(WEB的话通常是NOBODY)

983.RE: 请问各位大神,有没有试过用sphinx+scws的搜索方式?

更新时间:2013-08-21 12:08 t By hightman

600万数据怎么可能要建2天,肯定用法不当咯。 我们没有做 scws for sphinx 的整合,不知别的地方有没有。

984.RE: 在更新索引时,经常出错,麻烦大家看看

发布时间:2011-09-30 01:09 t By hightman

从提示信息看您往服务端发送15664字节,但实际只有8192字节发送成功,您是用 util/Indexer 来更新数据吗?也许是 server 端卡住,是否同时运行了多个脚本在并发写入呢?是否方便复现。 这种情况是发生在导入数据的什么 阶段?...

985.RE: ./sdk/php/util/Indexer.php --source=csv --clean demo

发布时间:2012-05-14 11:05 t By hightman

这个你就看说明吧,试用 DEMO 那一章节

986.RE: 新增索引和更新索引速度好慢好慢,不能忍受,都在分钟级别上。

发布时间:2012-05-28 12:05 t By hightman

为了优化性能,默认都是会有延迟更新的。 你可以强制使用 XSIndex::flushIndex 来刷新的

987.[更新] 修正xdb词典导致生僻汉字被当作符号清除的问题

发布时间:2010-03-19 10:03 t By hightman

原随 scws 一起发布的简体中文 xdb 词典存在部分问题,导致一些冷僻汉字不能做到散字自动二元,甚至被当做标点符号清除。 现已更新词典,修正该问题,强烈建议重新下载新词典。下载地址: [URL]http://www.ftphp.com/scws/download....

988.RE: mysql 其实支持中文全文检索的

发布时间:2010-05-16 12:05 t By xiaolan

[quote='hightman' pid='3550' dateline='1273972998'] 没有什么太大的问题,但必须存一个冗余字段。以前就有建议过一些朋友这么做。 还有,MYISAM内置的全文也只是一个简单的解决方案,最终效果可能也不是非常好,根据以前的测试50万...

989.RE: 索引文件还在,但是无法正常检索,只能检索最新的数据

发布时间:2014-06-17 11:06 t By hightman

xunsearch/bin/xapian-check xapian-inspect 这几个工具可以检查一下数据库,看看是不是坏了。 还有你可以试试用命令行的 util/Quest.php --db=db_a,db 这样强制指定DB库来测试一下呢?

990.RE: 在PPC等处理器上测试SCWS分词算法,不能正确分词

发布时间:2013-05-30 15:05 t By hightman

词库的字节序原因,你可以在 ppc 处理器上重新用 bin/gen-scws-dict 制作一份词库就可以了。

  • 时间不限
  • 按相关性排序