搜索

大约有 60 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.3869秒)

31.开发规范

...,请自行编写 代码和定义时不要也以 `XS` 开头。 自定义分词 --------- Xunsearch 在项目配置时支持针对某些字段自定义分词。每个自定义分词功能单独使用一个 文件名,命名为 `XSTokenizerXyz.class.php`,其中 `Xyz` 是您自己的分词名称...

32.RE:1244

发布时间:2007-07-26 11:07 t By phaeton

为什么我对一串utf-8编码的中文分词,竟得到了下面的效果(只是单纯得到每个字) 我在程序里已经设置了编码方式 scws_set_charset(s, "utf-8"); [attach]124[/attach]

33.想在用索引搜索时,输入的关键字不被分词该怎么做?

发布时间:2014-11-20 15:11 t By pbin

想在搜索的时候,关键词按照自己的意愿来切分应该是要怎么做? 文档里看到有个自定义词库的设置,然后根据文档使用了下,发现没达到效果。比如说,我想搜索拥有"味道恶心"这个词的文章,(我的文档库里面是有相关文章的...

34.关于多粒度的建议

发布时间:2013-12-24 13:12 t By anzm2005

我试了下目前的多粒度分词,有一种情况不能实现 比如词典里有: 我们是中国人 我们是中国 我们是 中国人 中国 当要分句子: 我们是中国人 无论怎么设置,都无法分出 我们是中国 我们是 这些词 就是目前是...

35.求助:演示的源码在本地和演示上分词测试结果不同【已解决】

更新时间:2013-07-02 21:07 t By jjyang

刚在本地布了一套环境测试,使用同一段文字,演示的分词结果和我本地的结果不同,检查设置项没发现问题所在,所以问一下请大家帮忙看看是什么问题。 [b]分词内容:[/b] [quote]  本报长沙讯 22日晚7点50分左右,湖南农...

36.在 Xunsearch 使用 SCWS

...在安装完 `Xunsearch` 后可以通过服务端内置的 scws[1] 实现分词, 而不需要另外再安装 scws 的 php 扩展。从 `1.3.1` 版本起,`Xunsearch` 的 PHP-SDK 中加入 [XSTokenizerScws] 类,可通过搜索服务端执行分词功能。 用法简单说明 ---------- 这...

37.获取搜索结果

...的部分进行飘红或加粗等高亮处理, 由于其中涉及到了分词等细节处理比较麻烦。因此,我们统一提供了 [XSSearch::highlight] 方法,可以对搜索结果文档中的字段值直接进行处理,匹配关键词部分会自动套上 `em` 标签。 您只要在...

38.关于扩展词库的问题

发布时间:2010-06-02 10:06 t By hide3088569

我使用的版本是1.1.2 使用了复合分词且只用了【最短词】来复合 假定我的扩展词库中有:【球面抛光机】、【冰包餐桌】 没有扩展结果分别是: 【球面抛光机】 -> 球面、抛光机、抛光 【冰包餐桌】 -> 餐桌(idf:6.19) ...

39.XSTokenizerScws的一个使用问题

发布时间:2013-01-29 10:01 t By tisswb

是这样的,我使用XSTokenizerScws进行分词 [php] $tokenizer = new XSTokenizerScws; $tk = $tokenizer->setIgnore(true)->setMulti(11)->getResult("是一"); print_r($tk); [/php] 结果是 [quote] Array ( [0] => Array ( [off] => 0 [attr] => m ...

40.构建搜索语句

...部默认采用 `AND` 规则, 也就是说要求列出来的关键词(分词之后)全部匹配,如果您通过 [XSSearch::setFuzzy] 开启了模糊匹配,那么相当于采用 `OR` 规则,只要其中一个关键词匹配即可。 刚刚说的这种搜索的是索引数据库的“混...

  • 时间不限
  • 按相关性排序