可以的啊,用SCWS_XDB工具导出成TXT格式就可以编辑了. 但要注意词性最多2个字符,不可以是#和@和!,这三个有特殊函义
...段按匹配度排序 我对xlen分词器不是很了解 这个排序mysql可以实现 但是mysql分割后的位置不是固定的 project.name = hash project.default_charset = UTF-8 server.index = /dev/shm/xs-indexd.sock server.search = /dev/shm/xs-searchd.sock [id];图片ID主键 唯一 ...
...------ 默认情况下,每次返回搜索结果的前 10 条数据,您可以通过 [XSSearch::setLimit] 指定返回的条数及偏移量, 这样就可以实现分页搜索的效果。特别注意,每一次调用 [XSSearch::search] 后均会把这些设置恢复到默认值状态。 ~~~ [p...
...不是全文检索了,大概有几种办法: 1. 你把词典删除就可以搜索单字了。etc/dict.utf8.xdb ... 2. 或者要强制检索单还可以考虑修改C代码的部分,修改 src/import.h #define DEFAULT_SCWS_MULTI 3 把 3 改为 15 然后重新编译并...
...速度的慢其实是相对的,在一个大库里更新比较慢。但你可以变通分库,把最近的做成一个小库用以实时更新,再定期合并索引。 2)1亿条肯定要分库为佳,建议2000万左右一个库。可以联库索引,库也可是远程库(通...
...,”分隔的,如"23,435,66,6",想要搜索出分类id为6的数据,就可以这样设置字段: [cat_id] index = self tokenizer = split(,) [/quote] 这个功能真的非常好,解决了数据库一对多表问题。可以在一个表里加一个字段就可以了。
...择使用 xunsearch ,像你这样的站是比较典型的,方便的话可以留下网址。 搜索性能 0.5 秒应该是首次检索,第二次检索同样的关键词缓存应该会起作用。 再说一下如何分库 像你这样的贴子,应该说旧贴子不太可能再发生删除...
500万条数据可以分段来读取,比如每次10000条,就不会出现上面的php错误了。判断是不是某条数据是不是已经存在了,可以根据主键来判断是不是已存在,存在的跳过就可以了。例如: [php]$query = "id:1753"; $docs = $xs->search->search($q...
...UNSEARCH安装到移动硬盘上使用的啊? 比如PHP环境一样,可以有 PHP集成环境(phpStudy) 绿色版 套件,直接解压到一定硬盘上就可以使用,带了PHP和SQL等需要的东西的, 然后,想请教下,xunsearch有没有什么办法可以做到类似的...
...速度的慢其实是相对的,在一个大库里更新比较慢。但你可以变通分库,把最近的做成一个小库用以实时更新,再定期合并索引。 2)1亿条肯定要分库为佳,建议2000万左右一个库。可以联库索引,库也可是远程库(通...