...,似乎用户后者搜索引擎能通过别的域名访问你的网站 比如,你在代码中配置的是www.xxxx.com,而蜘蛛通过无www的域名访问 过滤蜘蛛应该用user_agent [/quote] 我不会去用user_agent的 麻烦 全部蜘蛛都给判断一次? 其实知道这个$...
...search 结合时作了很多特殊处理,保障查全率和准确率。 比如“管理制度” 解析为 “管理制度” OR “管理 AND 制度”
换一种方式解决啊,逐级添加父分类 比如一条数据的分类ID是 9,分类9的父ID是3,分类ID3的父分类是 1 那么你给文档创建索引的时候,通过 $doc->addTerm() 给全部祖先分类ID:3,1 也建立索引不就好了。然后检索 3/1也能检索到分类...
...,似乎用户后者搜索引擎能通过别的域名访问你的网站 比如,你在代码中配置的是www.xxxx.com,而蜘蛛通过无www的域名访问 过滤蜘蛛应该用user_agent
...为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getResult("是一"); [/code]
分词并不影响一字歌的搜索。只要库内有那个“词”。 比如:陈百强-不.mp3 这样分词的结果是 [color=red]陈百强 陈百 百强 不[/color] 这样搜索”不“,搜索”陈百强“,”陈百“,”百强“都可以搜索到,怎么会不能搜索单字呢...
...为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getResult("是一"); [/code] [/quote] 感谢指教...
是不是你的 TXT 文件有问题,比如编码方面。TXT的资源指定成XDB肯定要出错啊