分类分词 tokenizer = split(|) 这样的存进文档里,这样可以实现多个分类的 分面查询吗? 之前有篇帖子加 addTerm 或者 以split(|) 分割的2种方法,我试了下,不能解决分面搜索的统计结果! 没办法,又试了下,我结合以split(|) 分...