...2&3=1&4=3-------------- 这是字段配置 [userinfo] tokenizer = split(&) type = string index = mixed 搜索1=2 分词器不执行,搜索userinfo:1=2 分词器才会执行 这是怎么回事?
http://www.xunsearch.com/site/search?q=Missing+field+of+type+ID
[XSException] ../application/0.0.1/library/Component/XS.php(834): Missing field of type ID #0
[quote='askie' pid='312' dateline='1323228058'] 我也遇到了同样问题! [/quote] 把type 设置成为 string 貌似是一种变通的方法
...efault_charset = utf8 server.index = 8383 server.search = 8384 [pid] type = id [subject] index = both tokenizer =xlen(2) 二元分词只能对英文生效,对中文不生效 同时急于需要一元分词,主要是做黑词筛选用,因为有的时候就要搜索某些一元...
因为你用|分隔,所以要用 type:aaa|bbb 来做语句。 空格在语句中都是特殊的,所以如果用空格分隔可能会不对
..._id //商品ID item_title //商品标题 item_text //商品说明 item_type // 商品类型:上衣、裙子、裤子、鞋子、配饰 col_id // 归属于哪个搭配ID 就是一个服装搭配里,包含有多个不同的商品,一对多的关系。 检索时,要求同时搜索搭...
字段配置 [user_id] type = numeric index = self tokenizer = full 用 $search->addRange('user_id',1,20000)->..... 搜索 指定 用户id 范围的内容 addRange区间过滤不起作用 不知道是我配置问题 还是调用方式不对
addWeight('title', $skey) 作何解释?addWeight 是只针对一个词的。 此外 $skey 发果是关键字你就用 setQuery($skey . " type:1") 这样啊,详见: http://www.xunsearch.com/doc/php/guide/search.query