搜索

大约有 991 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0058秒)

111.RE: 二元分词问题

更新时间:2011-11-15 11:11 t By hightman

需要 NEAR 位置信息的话,目前只能用内置的 scws 分词 scws 目前不能自定义词库,你必须把词库转换成 dict.utf8.xdb 一个统一的词库放进 $prefix/etc/ 才可以

112.RE: 数据导入 乱码问题

发布时间:2011-11-25 19:11 t By hightman

晕啊,看来是MYSQL这个东西不兼容真多啊。 utf8 不加引号吧? 当时 tina那儿说要写成 utf-8 。。。 这个 PDO 的版本很多,有些情况 是在 DSN里指定就好。下次统一修正一下。谢谢

113.RE: 关于 numeric 类型精度问题

发布时间:2011-12-07 12:12 t By hightman

原始数据:1283934062 加入索引并检索 获取数据 1.28393e+09 浮点数是这样没什么好办法

114.RE: 数据导入 乱码问题

发布时间:2011-12-08 11:12 t By hightman

由此带来不便甚感,抱歉,git仓库中的代码已经修正。 我们会尽快释放 1.1.1 正式版,目前正在加一些小功能。

115.RE: 关于 numeric 类型精度问题

发布时间:2011-12-11 02:12 t By KnightE

应该尽量通过xs得到id,然后根据id批量从DB/NOSQL取信息,直接从xs取信息不是个好主意。

116.setLimit的问题

发布时间:2011-12-12 17:12 t By icebolt

setLimit设置成100以上不起作用,最大只能是100

117.RE: setLimit的问题

发布时间:2011-12-12 22:12 t By hightman

对。这个可能文档忘了说。。。

118.RE: setLimit的问题

发布时间:2011-12-13 08:12 t By icebolt

能够修改吗?

119.RE: setLimit的问题

发布时间:2011-12-19 13:12 t By icebolt

我用分词的目的,主要是做黑词的筛查,所以不需要分页,也不需要缓存,如果想屏蔽缓存在哪做呢

120.RE: setLimit的问题

发布时间:2011-12-19 13:12 t By hightman

缓存可以在单独编译 xunsearch-1.x.x 的时候加入 --disable-cache 配置选项

  • 时间不限
  • 按相关性排序