搜索

大约有 20 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0057秒)

1.RE: 我想使系统自动的分词功能,可是只看到有接口

发布时间:2011-11-28 12:11 t By icebolt

如果只是想实现分词,为什么直接scws呢,何必xunsearch呢?

2.RE: 我想使系统自动的分词功能,可是只看到有接口

发布时间:2011-11-25 13:11 t By limingyao

...一个分割后的TAG都可以搜索到。 [/quote] 我需要的功能只是分词。和搜索木有关系。考虑另外安装scws了。。。

3.RE: 我想使系统自动的分词功能,可是只看到有接口

发布时间:2011-11-30 12:11 t By limingyao

[quote='icebolt' pid='282' dateline='1322453185'] 如果只是想实现分词,为什么直接scws呢,何必xunsearch呢? [/quote] 因为同一个系统里面,既有需要分词提取tag的地方,又有搜索,当然会出现此情况了。目前已安装scws来实现该功能...

4.daemon server(linux后台程序)和embed(库的形式嵌入程序中)

更新时间:2010-12-09 23:12 t By lauxinz

...。[b]当使本库做为 daemon server 时应当使 mem 方式,当只是 embed 调时应该使 xdb 方式[/b],将 xdb 文件加载进内存不仅占了比较多的内存,而且也需要一定的时间(35万条数据约需要0.3~0.5秒左右)。[/quote] 上文中daemon ser...

5.RE: scws与多线程

发布时间:2010-12-08 14:12 t By hightman

mblen 只是个指针,指向的是在 charset.c 中定义的全局变量,应当已经是共的了; 至于 mode 看需要吧,只是一个整型 ,如果你在不同线程中切分建议各自一个 mode ,除非你自己能确定它们的切词设置是共的(主要于保存...

6.mysql 其实支持中文全文检索的

发布时间:2010-05-14 10:05 t By xiaolan

只是。。。 没法而已。。 因为英文中都是空格进行分割的 不过如果将ft_min_word_len改为2, 然后在程序里将内容scws进行分词,然后存入数据库单独的字段里,空格分开,检索的时候, mysql的全文检索,可以检索到...

7.RE: 这个不支持英文词典和中英文混合词典啊

发布时间:2012-02-22 19:02 t By vanni

如果只要文章中有Linux出现就算是Linux相关文章的话,其实是不需要分词了,直接全文搜索Linux就好了。 只是SCWS目前看前来它的自定义词典不支持超过3个字,如果可以的话,可以通过自定义“Linux优化”来指定分词

8.RE: 求TF/IDF算法(官方的计算器没有作

发布时间:2013-05-22 13:05 t By hightman

TF/IDF值不会导致不到分词只是靠在一起时需要消岐才得到。你自定义词典不了要查查是什么别的原因。 通常问题: 1.词典写的字符集不对,比如把GBK当UTF-8了 2.词典更新后的修改时间由于某些原因比/tmp目录下生成的临...

9.开发规范

...先强调一下开发规范。开发规范并不是强制性的要求,而只是 为了使项目及代码更利于维护、阅读而制定的一些习惯行为公约。 目录设置 ------- 无论您是否将 `PHP-SDK` 的代码拷出单独使,强烈建议保留现有的目录结构。 开...

10.在 Xunsearch 使 SCWS

...支持三个参数, 返回的词汇数组元素和分词结果类似,只是把 *off* 替换为 *times* 表示这个词在文本中出现的总次数。 ~~~ [php] $text = '迅搜(xunsearch)是优秀的开源全文检索解决方案'; // 提取前 5 个重要词,要求词性必须是 n 或v ...

12
  • 时间不限
  • 按相关性排序