搜索

大约有 991 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0081秒)

891. SimpleCWS::set_dict(): Failed to set the dict file

更新时间:2013-08-28 21:08 t By lwstudio2001

SCWS-1.2.2安装后运行自带的测试脚本scws_test.php报错了: SimpleCWS::set_dict(): Failed to set the dict file。 检查过多次完全按照说明安装的。服务器环境是ubuntu 12.04 nginx php5.3[hr] 权限问题,更改权限可以了!

892.RE: 我想使用系统自动的分词功能,可是只看到有接口

发布时间:2011-11-26 11:11 t By zxing

...ne='1322196172'] 还是不明白! 你把这段文字用scws切割会有问题吗?如果你这段字是用空格或逗号分隔,那么你可以用 split 这个分词器啊。 搜索的时候搜索任何一个分割后的TAG都可以搜索到。 [/quote] 呵呵,管理员没听明白...

893.RE: addRange后count不准确

发布时间:2014-10-31 18:10 t By akstrom

...arch后,在多重排序后,结果不正确 [/quote] 是阿,这个问题很验证,能否不用估算这个?因为毕竟还没到百度那个等级,要一个相对准确的count,希望可以解决

894.关于字段数的限制方面的建议

发布时间:2011-10-26 19:10 t By ixulf

...看到官方发布1.10b测试版。 今天喝酒回来,又想到一个问题,乘着酒兴提个关于字段数的限制方面的建议,不知合理不合理: 我现在的理解是字段数目有只能是255个的限制,对于大多数项目来说,这个数目是足够了。但是...

895.RE: SCWS切分的字符串是否有长度限制?

更新时间:2010-08-19 10:08 t By wrongway

我看了一下scws_set_multi,似乎不能解决我得问题。我再描述一下,打个比方,我要切分一段有200个汉字的字符串,但是返回的分词数组只包含了前100个汉字的词。[hr] 我还是把代码贴出来吧。 从返回的分词数组可以看出来...

896.RE: [预告] xunsearch 下一主版本 1.3.x 主要新增功能

发布时间:2012-01-04 12:01 t By hightman

...理和制度两个分开的词时则检索不到。 新版解决这个问题可以同时检索到。

897.RE: xunsearch-1.3.0 (基于xapian/scws/php的开源中文全文搜索,新增同义词、修正BUG)

更新时间:2012-01-18 09:01 t By KnightE

[s]呵呵,观察了一天,“document xxxx not found”的问题看不到了[/s] 额,不是,还是有这个错误在log中:(

898.清定索引和新建索引都报错SHOPNC的索引求大神请点。

更新时间:2015-01-11 02:01 t By huhuimike

.../lib/XS.php on line 2443 success at 2015-01-11 02:08:21 [hr] 权限都没问题

899.RE: 为何导出txt,里面内容不动在创建XDB之后速度变慢很多很多

发布时间:2011-03-10 21:03 t By hit

...不能说明什么。。。。 [/quote] 那么会在什么环节出了问题呢? 为什么官方的比自己打包的快很多? 非常想知道答案 效率第一 = = 是不是要用 gen_dict.c 创建XDB比较好 还是其他原因?

900.RE: Demo项目运行失败

更新时间:2014-11-18 23:11 t By yanyun

... [/quote] 謝謝了,問題一下子就解決了! 还有一个问题想要请教哥们: 现在需要对一批中文的文本文件建立检索功能 现在的初步想法是 使用util/Indexer.php一行一行的将所有文本信息全部导入xs-searchd的一个project实...

  • 时间不限
  • 按相关性排序