搜索

大约有 101 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0057秒)

41.在腾讯云主机上安装xunsearch

更新时间:2011-11-25 14:11 t By bigxu

....但要想登上却比较麻烦. 1,你需要申请一个3分钟内有效的token,然后用token+pass作为密码登入 跳板机 2,登入跳板机后ssh就到真正的云主机 3.上传下载文件麻烦. 1)你不能在云主机上,以任何方式下载任何外网文件(ftp,wget,curl) 2)你...

42.XSFieldMeta::hasCustomTokenizer

hasCustomTokenizer() 方法 public bool hasCustomTokenizer() {return} bool 是返回 true, 不是返回 false 源码: sdk/php/lib/XSFieldScheme.class.php#L403 (显示) public function hasCustomTokenizer(){ return ($this->tokenizer !== XSTokenizer::DFL);} 判断当前字段...

43.RE: 配置文件的困惑

发布时间:2012-03-16 18:03 t By hightman

index 为 none 则 tokenizer 的值就无意义了...

44.split无效

更新时间:2014-07-23 11:07 t By q398044828

...是我字段内容 1=2&3=1&4=3-------------- 这是字段配置 [userinfo] tokenizer = split(&) type = string index = mixed 搜索1=2 分词器不执行,搜索userinfo:1=2 分词器才会执行 这是怎么回事?

45.split无效

更新时间:2014-07-23 11:07 t By q398044828

...是我字段内容 1=2&3=1&4=3-------------- 这是字段配置 [userinfo] tokenizer = split(&) type = string index = mixed 搜索1=2 分词器不执行,搜索userinfo:1=2 分词器才会执行 这是怎么回事?

46.RE: 求助,搜索词有最短限制吗

发布时间:2014-05-23 10:05 t By bigxu

tokenizer=full

47.二元分词问题

发布时间:2011-11-14 17:11 t By icebolt

...8383 server.search = 8384 [pid] type = id [subject] index = both tokenizer =xlen(2) 二元分词只能对英文生效,对中文不生效 同时急于需要一元分词,主要是做黑词筛选用,因为有的时候就要搜索某些一元词,比如 武器 near/2 售,但是...

48.搜索区间过滤 addRange不起 作用

发布时间:2011-12-07 17:12 t By vist2007

字段配置 [user_id] type = numeric index = self tokenizer = full 用 $search->addRange('user_id',1,20000)->..... 搜索 指定 用户id 范围的内容 addRange区间过滤不起作用 不知道是我配置问题 还是调用方式不对

49.XSTokenizerNone

XSTokenizerNone All Packages | 方法(函数) 包 XS.tokenizer 继承关系 class XSTokenizerNone 实现接口 XSTokenizer 版本 1.0.0 源代码 sdk/php/lib/XSTokenizer.class.php 内置空分词器 Public 方法 隐去继承来的方法 ...

50.XSTokenizerFull

XSTokenizerFull All Packages | 方法(函数) 包 XS.tokenizer 继承关系 class XSTokenizerFull 实现接口 XSTokenizer 版本 1.0.0 源代码 sdk/php/lib/XSTokenizer.class.php 内置整值分词器 Public 方法 隐去继承来的方法 ...

  • 时间不限
  • 按相关性排序