搜索

大约有 100 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2951秒)

51.RE: 测试环境运行了几天,昨天出现一个错误

发布时间:2011-12-25 00:12 t By hightman

多谢提供相关信息,将进一步排查,从提示看是不是的数据库正在变动呢?

52.RE: 迅搜报错

发布时间:2012-01-30 20:01 t By hightman

... 无法解决 [/quote] 这个错是数据库没有准备就绪吧,是不是还没有导入任何数据就尝试开始检索了? 或者贴上的代码和目前索引库的情况?

53.RE: 搜索整个数据库时, 排序结果错误

发布时间:2012-09-13 13:09 t By hightman

不明白说的具体什么意思。 addWeight 的权重可以是小数,注意微调。这个加的不是字段而是针对包含指定索引词的文档提权。  

54.RE: xunsearch每天凌晨4点左右挂掉(log)

发布时间:2013-05-21 10:05 t By hightman

不是开了多个进程在修改索引库啊

55.RE: Demo项目运行失败

更新时间:2014-11-18 23:11 t By yanyun

...本信息全部导入xs-searchd的一个project实例中 (我对php不是特别熟悉 又需要尽快的实现这一个目标) 1.现在的所有文本加在一起 有1G多 不知道认为用这种方法的可行性怎样? 2.有没有一种方法 可以在使用util/Indexer....

56.RE: 过了N秒了,还是搜索失败啊,大神们啊...

发布时间:2012-05-16 12:05 t By hightman

或者检查一下 tmp/index.log 看看是不是有什么出错,比如权限不对无法写入

57.为什么第四版速度这么慢?

发布时间:2011-02-08 19:02 t By hit

我电脑APACHE+PHP 4GB内存 E6300处理器 PHP简易中文分词(SCWS) 第4版(GBK) 在我电脑上用默认的分词内容"陈凯歌并不是..." 第一次0.8xxxs 第二次0.098711013793945 而们演示的就快多了 0.0039410591125488 为什么差距这么大?

58.RE: 搜索出来的数字型怎么成了这样的乱码

发布时间:2012-02-24 23:02 t By 鸭梨山大

应该是数据源不是utf8的吧

59.RE: php_scws.dll加载问题.help~

发布时间:2010-11-24 20:11 t By hightman

下载的PHP不是threadsafe的,换一个版本吧

60.RE: XSTokenizerScws的一个使用问题

发布时间:2013-01-30 14:01 t By hightman

自己搞错了! “是一”本身不是词,只是因为二元结合法所以scws自动将其合成为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 的问题必须是 [code] $tk = $tokenizer->s...

  • 时间不限
  • 按相关性排序