搜索

大约有 155 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1952秒)

91.RE: 这个不支持英文词典和中英文混合词典啊

发布时间:2012-02-22 19:02 t By vanni

如果只要文章中有Linux出现就算是Linux相关文章的话,其实是不需要分词了,直接用全文搜索Linux就好了。 只是SCWS目前看前来它的自定义词典不支持超过3个字,如果可以的话,可以通过自定义“Linux优化”来指定分词

92.RE: 我有10多万条用户搜索记录,导入到日志中,有什么用

发布时间:2012-02-20 16:02 t By hightman

如果是xunsearch搜索日志你不需要手动导入,它已经自动处理过了。 外部来的可以导,手册很明确指出搜索日志用于拼音建议、相关搜索。至于你所谓的精准度,似乎毫无关系

93.最新的主要变动

...在这里,按版本号罗列了历次版本的主要变动记录,以及相关的文档链接, 方便新老用户快速查看。完整的更新日志请查看 [git 提交日志][1]。 版本 1.4.8 (2013-12-11) ---------------------- - 改进优化代码兼容性 - 增加用户案例文档:US...

94.运行demo时的问题

发布时间:2011-10-21 11:10 t By 3左3右

小弟才接触php一周时间,接手就是一个全文检索相关的任务,准备使用迅搜,安装通过,并且测试了只有一个warning(看论坛中其他贴子那个警告不影响使用),然后运行了demo程序结果报错,内容如下: [XSException] lib/XS.php(2008)...

95.XSTokenizer

... string 待分词的字段值(UTF-8编码) $doc XSDocument 当前相关的索引文档 {return} array 切好的词组成的数组 源码: sdk/php/lib/XSTokenizer.class.php#L33 (显示) public function getTokens($value, XSDocument $doc = null); 执行分词并返回词列...

96.RE: 在更新索引时,经常出错,麻烦大家看看

发布时间:2011-09-30 01:09 t By hightman

... 现现这个情况的时候建议查看一下 tmp/indexd.log 是否有相关的错误日志,以及 tmp/*.rcv, tmp/*.snd 文件的大小。

97.RE: http-scws(基于scws的http协议中文分词)

发布时间:2011-06-08 14:06 t By smallevil

好长时间不写C了,写着有点吃力,所以暂时先把最基本需要的分词及高频词提取写出来了。 后续等有点空时会慢慢实现更多的功能及加入相关脚本。

98.xunsearch-1.2.0 (基于xapian/scws/php的开源中文全文搜索,自定义词库、搜索日志管理)

发布时间:2011-12-12 17:12 t By hightman

...新增搜索日志管理工具 util.Logger,可用于管理热门搜索、相关搜索、搜索建议和纠错等内容。 [url]http://www.xunsearch.com/doc/php/guide/util.logger[/url] 2. 小修改大提升,支持自定义 SCWS 分词词典,文本格式。但旧有索引必须重建,新...

99.关于搜索分页的bug

发布时间:2012-03-27 10:03 t By ttgive

...ge('addtime',$from,null)->search(); $count=$search->getLastCount(); 在相关时间区间里面搜索再以时间来排序,这种query可能造成结果总数的不准确 解决方案: 其实解决方案很容易,如下代码 $docs=$search->addRange('addtime',$from,null)->search()->getLastC...

100.RE: 结合搜索引擎来制作自动标签系统

发布时间:2011-12-14 09:12 t By rogical

...做这个的目的是为了下一步精准内容推送。用户在看到‘相关内容推荐’,‘相似内容,热度内容’时,肯定是越精准体验越好,反之就失去意义。

  • 时间不限
  • 按相关性排序