搜索

大约有 374 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2899秒)

51.关于分词的几个问题

发布时间:2007-06-12 16:06 t By listdo

...900万个词(是分好的词不是字)。 检索效果还不错,如果纯单词进行检索效果相当好。长句略慢。。。。[/quote] 分词结果: [quote]1 . 全文检索 , 此次 全文 搭配 数据库 进行 。 测试 中 大概 有 45 万 篇文章 , 约 900 万个词...

52.怎么解决自定义词库的时候有的词还是会被拆分的问题?

发布时间:2012-07-24 22:07 t By l4yn3

...词还是会被拆分的问题?我自己定义了一个词库,我希望如果词库里面有的词会被完成的分出来,比如词是"帕萨特新领驭"被直接被拆成“帕萨特新领驭”,这个没问题。但是如果词是"帕萨特新领驭2.0",就会被拆成"帕萨特新领驭...

53.RE: 怎么让匹配到得关键词靠前的权重高一些?

发布时间:2012-04-19 15:04 t By loveloop

.../quote] 我做了简单的修改。 添加了如下的规则: 如果对搜索词都是完全匹配,则出现在结果的列的最前面的给予最高权重。 如果有多个结果同时完全匹配,且同时出现在最首位,则结果列最短的给予较高权重。 目...

54.RE: 如何获取到分词对应的id

发布时间:2011-02-14 12:02 t By michael

...,拆分到词组, 拿这些词组在全文里搜索,这个时候,如果有词组对应的唯一ID,那么就可以通过id关联来查询,而不用like了。 如,一篇文章标题为:我是中国人,假设该文章id为1 分词后,有'中国',‘中国人’,如果每个分...

55.搜索概述

...用,而不是自行创建对象。后面章节中的 相关测试代码如果没有特别编写,其中的 `$search` 均为通过类似以下的方式获取的索引对象: ~~~ [php] require '$prefix/sdk/php/lib/XS.php'; $xs = new XS('demo'); // 建立 XS 对象,项目名称为:demo $searc...

56.RE: daemon server(linux后台程序)和embed(库的形式嵌入程序中)

更新时间:2010-12-10 15:12 t By lauxinz

...mem方式比xdb性能要高些,只是会占用比较多的内存资源,如果需要经常频繁的进行分词操作就应该采用mem方式,比如搜索引擎的建索引时主要耗费的时间都花费在分词上,反正现在内存也便宜,而且词典不算太大。如果程序偶尔...

57.RE: 我想使用系统自动的分词功能,可是只看到有接口

发布时间:2011-11-26 11:11 t By zxing

...72'] 还是不明白! 你把这段文字用scws切割会有问题吗?如果你这段字是用空格或逗号分隔,那么你可以用 split 这个分词器啊。 搜索的时候搜索任何一个分割后的TAG都可以搜索到。 [/quote] 呵呵,管理员没听明白楼主的意...

58.RE: 实时加载字典,服务器严重吃不消,有没有办法?

发布时间:2009-08-03 23:08 t By askie

... dateline='1247673062'] [quote='askie' pid='3233' dateline='1247660523'] 如果分词次数太多,很容易引起服务器假死,linux服务器! 请问老大有没有加载到内容进行调用的方法? [/quote] 当然有啊,你看一下说明吧. 我不清楚你用的是什么方式...

59.RE: mysql导入数据配置文件里的字段要和数据库里的一样吗?

发布时间:2011-10-28 11:10 t By hpxl

报上面错误的原因是没有给type为id的主键赋值,也就是pid没有值。字段赋值时如果不指定,就字段必须一样。如果在赋值的时候指定也可以不一样啊。例如$arr['pid'] = $tmp['id'];

60.添加文档

... [XSIndex::add] 方法将文档加入索引数据库中即可。 > note: 如果索引数据库中已存在主键值相同的文档,并不会有冲突提示,文档仍会 > 添加成功并且不会有任何冲突提醒。所以除非您明确知道此为新文档,否则建议使用 > [更新文...

  • 时间不限
  • 按相关性排序