搜索

大约有 546 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0050秒)

361.RE: setLimit的问题

发布时间:2011-12-19 13:12 t By icebolt

我用分词的目的,主要是做黑词的筛查,所以不需要分页,也不需要缓存,如果想屏蔽缓存在哪做呢

362.您好,请教一个问题

发布时间:2011-12-25 01:12 t By assad

我一直在关注您开发的分词,已经在很多项目中使用 突然发现您公布了开源搜索方案,很是惊讶,很感谢您的辛勤付出。 我想请教几个问题: 1.是否支持增量索引自动化。也就是自动把新数据加入索引。 2.是否支持join查询

363.RE: 搜索问题

发布时间:2012-09-07 15:09 t By hightman

中文分词!!!“千”单字当然搜索不到“千年”这个词 

364.RE: 搜索总是不准确

发布时间:2012-10-25 11:10 t By benq81

我看楼主现在的搜索挺准确的啊,是自己加了分词吗?还是别的办法~

365.RE: 搜索总是不准确

发布时间:2012-10-25 13:10 t By hightman

[quote='benq81' pid='1380' dateline='1351136388'] 我看楼主现在的搜索挺准确的啊,是自己加了分词吗?还是别的办法~ [/quote] 当时给他建议后添加了自定义词汇,药到病除。。。

366.RE:1229

发布时间:2007-06-07 11:06 t By 森然

期待C版简易中文分词-cscwsd-0.0.4发布

367.RE:1244

发布时间:2007-07-26 11:07 t By phaeton

为什么我对一串utf-8编码的中文分词,竟得到了下面的效果(只是单纯得到每个字) 我在程序里已经设置了编码方式 scws_set_charset(s, "utf-8"); [attach]124[/attach]

368.RE:1241

发布时间:2007-12-28 09:12 t By yorsun

能不能对utf8进行分词

369.RE:1234

发布时间:2007-12-30 14:12 t By dos2000

C版简易中文分词-cscwsd-0.0.3 安装很容易就成功了,但是这个pre版本却一直没有安装成功。继续努力中。

370.RE: 新手疑问

发布时间:2009-11-16 15:11 t By hightman

那就在分词的时候使用multi分法

  • 时间不限
  • 按相关性排序