搜索

大约有 200 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1051秒)

101.疑惑:分词数上限和标点符号控制

发布时间:2013-05-10 17:05 t By Brady.Li

...1.2.1) ,php扩展 其一: strpos($w['word'],"5) 参数limit,设置分词数上限,可否控制上限?参数是什么 其二: set_ignore(bool yes) 参数:true的话,表示忽略标点,但是实测中好像' "这种标点是无法忽略的, 如在我使用中会切出 N...

102.关于分词的几个问题

发布时间:2007-06-12 16:06 t By listdo

...纯单词进行检索效果相当好。长句略慢。。。。[/quote] 分词结果: [quote]1 . 全文检索 , 此次 全文 搭配 数据库 进行 。 测试 中 大概 有 45 万 篇文章 , 约 900 万个词 ( 是 分 好 的 词 是 字 ) 。 检索 效果 还 错 , 如...

103.RE: 全文检索 tokenizer = full 时,无法查询

发布时间:2013-09-06 13:09 t By hightman

tokenizer = full 就是分词了。但指定字段时还是会分词,除非你用 XSSearch::addQueryTerm 来构建查询

104.RE: 关于SCWS基于HTTP/POST的分词API的一个问题

发布时间:2011-04-19 15:04 t By tuzwu

...] 感谢管理员回复. 其实我的意思大概可以简化为: 最长分词模式. 分出来的词要达到符合语法的最长.这个难度估计小,呵呵,也可能是比较现实的需求. 自己架设scws分词库程序当然可以导入自己的词库,但是是每个人都愿...

105.RE: 分词初试,结果

发布时间:2010-09-19 15:09 t By xiaowang19

...的演示程序(源代码另存为)。 UTF-8版本的一直成功,分词结果就如我最开始的截图; GBK版本的在保存文件的时候选择文件编码为ANSI,就一切正常了。如果编码选择GB2312,就会出现随便输入一些字符,时行时行。 然后,...

106.使用SCWS的libscws C源码,测试分词成功

发布时间:2014-01-02 18:01 t By banderuilq

1,下载了SCWS的源码,使用其中的libscws; 2,并下载了 [简体中文(UTF-8) (3.9MB,28万词,2013/01/08更新)] scws-dict-chs-utf8.tar.bz2。 3,使用示例代码: #include #include #define SCWS_PREFIX "/usr/local/scws" main() { scws_t s; scws_res_t r...

107.RE: addIndex addTerm 区别

发布时间:2013-03-31 13:03 t By hightman

addIndex 为根据分词器调用分词分为多个term 。addTerm则分词直接加term

108.RE: scws1.1.2 安装错误

发布时间:2010-05-13 16:05 t By gaoomei

...能够正常的被php加载上去了。 但是现在有个问题是 无法分词,情况是这样的: 1. 按照统计形式分词,返回结果为空 2. 而按照非统计形式分词,结果是单字,没有词组。 3.回头去查,发现原来安装的另外一台32位的1.1.1版本的分...

109.C版简易中文分词-cscwsd-0.0.3 发布

发布时间:2007-06-06 10:06 t By hightman

...下:运行后在本地绑定一个端口(缺省是 4700)监听处理分词服务,无其它功能。针对输入的文字进行分词后然后原样输出,注意每次输入均以 "\n" 作为处理标记,即一行处理一次并返回。这样作的目的在于提高分词的效率和通...

110.自定义分词

自定义分词器 `Xunsearch` 默认内置了功能强大的 [SCWS][1] 分词系统,也附加提供了一些简单常见的分词规则, 但考虑到用户的个性需求,特意提供了自定义分词器的功能。 > note: 自定义分词器存在一个缺陷,它支持存...

  • 时间不限
  • 按相关性排序