...为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getResult("是一"); [/code]
原来是这样,分库倒是个不错的主意。自己根据条件决定要不要 addDb() 我担心的是通过 value 匹配才导致的慢,比如 addRange() 调用 或 setFacets()
比如我有个字段用来存URL。。 其中一篇文章的url为:article/001.html 然后管理员把article栏目改为essay 那么所有article/应该替换为essay/ 有没有类似 UPDATE table SET url = REPLACE(url, 'article/', 'essay/'); 的功能
分词并不影响一字歌的搜索。只要库内有那个“词”。 比如:陈百强-不.mp3 这样分词的结果是 [color=red]陈百强 陈百 百强 不[/color] 这样搜索”不“,搜索”陈百强“,”陈百“,”百强“都可以搜索到,怎么会不能搜索单字呢...
我的也无法加载,php版本为5.3. 估计不是路径问题,是php版本问题。感觉现在服务器系统用windows的很多。建议也重视23版的开发和升级,比如加入get_tops等
我下了中文分詞系统1.2.2 在linux环境下安装成功了,但是分词时,会被分成一个一个的汗字 比如:我是一个中国人 分词后就变成了:我 是 一 个 中 国 人
最长的词16个汉字,250个英文字母。 应该是你的词典做错了,比如字符集不匹配之类。生成词典要严格按照字段区分开,字段之间用区分,这说都有相关的说明,按说明操作应当没有问题。
比如我有一个栏目ID筛选条件 catid:11 搜索出来的数据,还是有不是catid=11的数据。 配置文件,有catid这个字段 [catid] type = numeric index = self
请教个问题, 我demo.ini 新增字段后,重新导入索引, 发现新增的字段不在索引中 如何在更新ini中的字段呢? 比如我新增了update_time 目前, 重新导入索引之后,发现无update_time 这个key 数据
...谢老大回答,再问一下,那我其它的属性如何才能得到,比如我的word很多,我能都设置一样的属性吗,这样有什么影响?