搜索

大约有 300 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1023秒)

171.index

...r 自定义字段词法分析器接口 XSTokenizerFull 内置整值分词器 XSTokenizerNone 内置空分词器 XSTokenizerScws SCWS - 分词器(与搜索服务端通讯) XSTokenizerSplit 内置的分割分词器 XSTokenizerXlen 内置的定长分词器 XSTokenize...

172.SCWS - 比如我要加入关键词 65Mn这种专业词怎么做

发布时间:2012-08-20 11:08 t By jason

比如我要加入关键词 65Mn 这种专业词怎么做 rules->specials 自定义分词都试过 没法成功

173.[求助]如何转换pre版本的xdb为txt格式

发布时间:2007-12-25 17:12 t By hackson

...坛主为开源事业所做出的杰出努力,现在网上发布的种种分词工具,绝大部分都只提供了控件或者插件而不直接提供源代码和分词词库,本人非常鄙视那些把分词技术归为秘密的人。共同学习才能共同提高,取长补短,分词是很...

174.scws1.2.2 php 扩展问题

发布时间:2013-10-13 02:10 t By kevinwang

...也被编译进去了这是怎么回事,即使不需要set_dict也可以分词 另外这种情况下,set_dict感觉和add_dict一样,我的词典和编译进去的那个词典会一起使用 一些文章带有大量的链接http:// 结果 http com www 这些词 会被放到结果中,...

175.xunsearch-1.0.0 正式版 (基于xapian/scws/php的开源中文全文搜索引擎)

发布时间:2011-09-23 13:09 t By hightman

... C/C++ 开发多线程服务端,索引设计基于 Xapian 和 scws 中文分词。单库最多支持 40 亿条数据,在 500 万网页大约 1.5TB 的数据中检索时间不超过 1 秒(非缓存)。 [b]简单易用:[/b]前端是使用脚本语言编写的开发工具 (SDK),目前仅支...

176.XSTokenizerScws::setDict

...fpath); unset($this->_setting['add_dict']); return $this;} 设置分词词典, 支持 TXT/XDB 格式

177.RE: scws_has_word的逻辑问题

更新时间:2010-07-29 15:07 t By backluck

...本中是否包含这些属性的词。 scws_get_words 是按词性返回分词结果,标点的词应该默认应该是 un 或 # 之类可以自行排除。 [/quote] 关于has_word,我的意思是说,当我不传属性参数,返回的会是0

178.RE: scws1.1.8为什么第一次都很慢。

发布时间:2011-10-24 11:10 t By hightman

我刚试了一下倒是很快啊。 你说的第一次慢是重启WEB后第一次还是隔一段时间分词就会这样?

179.请问各位大神,有没有试过用sphinx+scws的搜索方式?

发布时间:2013-08-15 17:08 t By zhuaijay

我觉得scws分词不错,但是xunsearch的搜索不是很符合我的要求, 我主要是数据库索引加搜索方面的,所以xs的索引建立是一大问题,看了一下貌似sphinx在这方面比较好,网上也看到过这样的案例,用sphinx+scws建立索引加分词,...

180.php5.2.13的scws只能分割出人名

发布时间:2010-05-05 17:05 t By hight

我用的是 "陈凯歌并不是《无极》的唯一著作权人,一部电影的整体版权归电影制片厂所有" 这段话,不知道为什么就只能分割出来陈凯歌,如果是分词没起作用的话就不会分割出陈凯歌的,这到底是为什么呢?麻烦高人帮帮我吧

  • 时间不限
  • 按相关性排序