搜索

大约有 50 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2930秒)

21.抛个砖:libscws的perl 扩展,比较粗陋

发布时间:2008-01-14 21:01 t By xueron

不知道hightman能否丢出一个utf-8的xdb测试一下。多谢了先!!

22.RE: 不等于或大于小于的问题

发布时间:2013-12-25 12:12 t By skybaby

测试一下,在NOT specialcid:XXX 前面有搜索关键词的时候是正常的。。如果前面没搜索关键词的话没有效果。。

23.能不能下载到demo的所有源代码

更新时间:2011-10-21 00:10 t By quankun

想下下来测试一下。。。谢谢。。。[hr] 包括数据库啊

24.RE: xunsearch安装完成后运行示例错误

发布时间:2011-09-14 01:09 t By hightman

您 的PHP版本?是否先运行 util/RequiredCheck.php 测试一下,看上去你的PHP似乎 不支持 __toString()

25.RE: Hightman您好,我的分词怎么不对啊

更新时间:2010-08-19 15:08 t By assad

...还是调用不到啊!![hr] 现在是这样的情况,在本地,我测试一下,程序没半点问题,能正常分词 我用FTP传到服务器上,却不行了 说明一下:所有文件编码都GBK,但是传到FTP上,用浏览器打开,却成了UTF-8的编码了,显示出...

26.RE: file_put_contents()生成的txt文件来当txt字典无法取得里面的内容!

更新时间:2011-08-09 14:08 t By 999

汗,看来就是因为“\r”问题。 hightman老兄,你是用那个来判断换行的?\r\n ?[hr] 测试一下windows下你使用的是“\n”,linux下你是不是使用了"\r\n" ? 汗,本地windows,服务器linux........ 继续测试。。。

27.RE: 关于 numeric 类型精度问题

发布时间:2011-12-06 17:12 t By vist2007

测试一下 numeric 超过100万的值 在update之后 数据精度会丢失 原始数据:1283934062 加入索引并检索 获取数据 1.28393e+09 1.28393e+09 从索引中取出来的数据 精度已经丢失 type = numeric index = self tokenizer = full

28.RE: libscws的问题

发布时间:2009-12-04 10:12 t By hightman

从结果看应该是 scws_set_dict(s, "/usr/local/etc/dict_chs_gbk.xdb", SCWS_XDICT_MEM); 这句话出了问题, 也就是可能词典不正确. 但这个词典目前测试在64位系统下也是可以正常工作的, 检查一下词典的字节数是不是没有下载完整.

29.RE: 使用工具导出xdb后出错

发布时间:2011-09-23 10:09 t By lwliangma

今天又在网站上重新下载了 简体utf8 xdb字典,和make_xdb 等软件,做次操作, xdb->txt 再txt->xdb 就不行了,直接报错! 麻烦版主测试一下,给一个修改字典的方法,谢谢!

30.RE: 手工添加SCWS的分词应该如何做?

更新时间:2009-03-01 19:03 t By hightman

可能是你的词被切成了其它不合理的单位吧. 加到special没有用. 你最好测试一下被检索的语句/文本切词后的效果...

12345
  • 时间不限
  • 按相关性排序