搜索

大约有 225 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0053秒)

51.测试 1500W 数据 使用xunsearch一些情况

更新时间:2012-08-30 12:08 t By qeenoo

...数:15,419,976 条[/b] 分为2个库,一个库580W,另外一个库就是剩下的。 索引文件大小:第1个库(14.3G) 第2个库:(30.1G) -------------------- [b]服务器配置(这个是在虚拟机下面的配置):[/b] CPU:Intel(R) Xeon(R) CPU E3-1230 V2 @ 3.30GHz...

52.RE: 自定义词库用不了。非常不解啊。。

发布时间:2011-10-21 18:10 t By ci169

哎呀。搞定了。是txt编码问题郁闷。我就是说怎么不行呢。

53.xunsearch是否支持一元分词

发布时间:2011-12-08 00:12 t By koook

看了一下基本上说内置了中文分词 内置中文分词 好处我想应该索引会相对的小一些 但是坏处就是要维护词库 新出词语不用立马根据 所以问一下是否支持一元分词 这样就可以实现类似mysql like方式的搜索了

54.分词的关键词选择

发布时间:2008-08-02 15:08 t By 小苦工

很感谢,大致看了版主发布的scws的文件包,很规范,接口和扩展都做的很少,不过就是注释少了点,对我等菜鸟,看的不是很明白!:D 想请问版主一个问题,分词分出来后,怎么选择一个句子的关键词是哪些!

55.后面有无计划xunsearch可以做分布式?

发布时间:2013-02-26 17:02 t By kobeng

就是统一的入口,然后同一个索引可以安照文档量分布到不同的子索引中?

56.关于xunsearch的使用范围。。。

发布时间:2011-10-21 16:10 t By quankun

...是需要建个内网的搜索引擎,包括网页的抓取,搜索等,就是没有现有的数据。请问能够用Heritrix爬虫抓取网页保存到mysql,然后用xunsearch进行搜索吗?如果可以的话,这个系统要怎么设计呢?希望各位大神赐教。。。。谢谢了...

57.求助scws分词bug

发布时间:2014-04-22 15:04 t By zhoutian

在使用scws分词的时候,如果输入40多个“卡”字,最后分出来的那个词少了一个字节,就是说在utf8下原本3字节的一个“卡”字,变成了两个字节,形成了一个乱码。在线测试也会出现这种情况,大家怎么解决啊???

58.关于多粒度的建议

发布时间:2013-12-24 13:12 t By anzm2005

...怎么设置,都无法分出 我们是中国 我们是 这些词 就是目前是按照词典最长词匹配,更短的词就忽略了。

59.RE: 运行demo时的问题

发布时间:2011-10-21 12:10 t By 3左3右

[quote='mengfanchao' pid='100' dateline='1319168964'] 你的8383 服务没有起来。要么就是 selinux 设置有问题。 [/quote] 好吧~重启了服务器忘记跑xunsearch的服务了,现在可以了 ~非常感谢~~

60.RE: 自定义的字典似乎有缓存?

发布时间:2010-10-12 16:10 t By 逆雪寒

我已经排查了 nginx 和 php 等所有可能的cache 。真的没有了 就是死活不更新。 Hm 真的不行,那个字典 完全看不出啥问题

  • 时间不限
  • 按相关性排序