搜索

大约有 100 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0067秒)

41.使自定义词库的时候,部分词会丢失

更新时间:2014-04-18 17:04 t By tianly

...是SCWS-1.2.2 我自己的词库替换了dict.utf8.xdb,然后尝试分词“朝鲜近日播放的一个纪录片中,发现”,发现“纪录片中”在分词结果中丢失了 Array ( [word] => 朝鲜 [off] => 0 [len] => 6 [idf] => 0 [attr] => @ ) Array ( [word] => 近日 [off] => 6 ...

42.请教分词结果的问题

发布时间:2010-05-10 12:05 t By xiaolan

...项目。。 -________- 。。 最近有个PHP项目需要到中文分词。。辗转很久来到了这里。。 在本机安装也很顺利,。 不过。。编码的UTF8 按照文档里面的demo也自己做个小东西。。试试。。。 然后。。 $words = scws_get_words($...

43.RE: [HELP]xunsearch安装好了,搜索没有结果集。。。

发布时间:2011-10-27 16:10 t By hightman

...395'] 非常感谢...也在刚开始学习xunsearch xunsearch采 scws 分词 xunsearch好像集成了 scws 对于分词 xunsearch 可以通过 XSTokenizer 扩展 我想问的是 既然是 集成scws 那么 1.有没有提供scws的api接口,实现短语分词功能 2.是否可以对scws...

44.RE: 英文单次能不能做到词典里删除

发布时间:2011-04-23 02:04 t By 粟术英

...line='1300441376'] 一段文字里有些英文单词, 但是不想进行分词和统计 加入到词典里, !, 但是没有 咋办? [/quote] 这个可以在get_tops的时候设定 可选择去掉英文属性分词 如下:$tops = $pscws->get_tops(10, '');

45.RE: 为何导出txt,里面内容不动在创建XDB之后速度变慢很多很多

更新时间:2011-03-13 02:03 t By hit

...的那种 于是就这样我小工具创建的XDB比官方下载的分词速度慢 演示版的那个分词 0.06s 我创建的XDB就到 0.09-0.1s了 我觉得比较奇怪~~ 一切都是按说明操作的 还有xdb没有增加新的词语和减少词语的官方XDB导出的TXT

46.开发规范

...,请自行编写 代码和定义时不要也以 `XS` 开头。 自定义分词 --------- Xunsearch 在项目配置时支持针对某些字段自定义分词。每个自定义分词功能单独使一个 文件名,命名为 `XSTokenizerXyz.class.php`,其中 `Xyz` 是您自己的分词名称...

47.在 Xunsearch 使 SCWS

...在安装完 `Xunsearch` 后可以通过服务端内置的 scws[1] 实现分词, 而不需要另外再安装 scws 的 php 扩展。从 `1.3.1` 版本起,`Xunsearch` 的 PHP-SDK 中加入 [XSTokenizerScws] 类,可通过搜索服务端执行分词功能。 法简单说明 ---------- 这...

48.图片搜索的一些疑问

更新时间:2014-02-16 17:02 t By Mr.

...相等的数据,然后根据hash_196字段按匹配度排序 我对xlen分词器不是很了解 这个排序mysql可以实现 但是mysql分割后的位置不是固定的 project.name = hash project.default_charset = UTF-8 server.index = /dev/shm/xs-indexd.sock server.search = /dev/shm/xs-se...

49.项目配置文件详解

..., 请将关联记录转换为搜索项目的新字段并设置对应的分词规则。字段设计很重要, 请仔细根据需求创建,字段名建议和您的实际数据库字段一致。 1. ### 定义字段 每个字段一个区段配置来表示,中括号内的名字即为字...

50.RE: 这个不支持英文词典和中英文混合词典啊

发布时间:2012-02-22 19:02 t By vanni

如果只要文章中有Linux出现就算是Linux相关文章的话,其实是不需要分词了,直接全文搜索Linux就好了。 只是SCWS目前看前来它的自定义词典不支持超过3个字,如果可以的话,可以通过自定义“Linux优化”来指定分词

  • 时间不限
  • 按相关性排序