搜索

大约有 50 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0057秒)

1.ubuntu安装无法分词

更新时间:2014-03-27 13:03 t By raykwok

...照官方文档安装和下载词典,用php扩展测试,无法对中文分词,把词典权限设置为777依旧不行。 还有其他什么要注意的? 例如: [quote]早春装新款2014大码宽松长款韩版蕾丝衫雪纺衫打底衬衫[/quote] 分词结果: [quote]早春装新...

2.本地安装分词和v48.php演示不一致,求解?

更新时间:2014-11-27 13:11 t By 28302551@qq.com

在ubuntu12.04下安装了分词,php版本为5.5.19,scws版本1.2.2 http://www.xunsearch.com/scws/demo/v48.php(演示分词) 与本地的分词效果不一样 本地分词结果: 陈凯歌 并 不 是 《 无 极 》 的 唯 一 著 作 权人 , 一 部 电 影 的 整 体 版 权归电...

3.新手請教一个安装成功的問題

发布时间:2014-02-10 10:02 t By niutou

我下了中文分詞系统1.2.2 在linux环境下安装成功了,但是分词时,会被分成一个一个的汗字 比如:我是一个中国人 分词就变成了:我 是 一 个 中 国 人

4.search->setScwsMulti关闭分词无效

发布时间:2014-07-17 17:07 t By jayle

数据量太大了,导致分词搜索结果数太多,反而不精准了。 所以想在某些情况下可以关闭分词功能,输入的是什么就搜索什么。 翻到了这个帖子 http://bbs.xunsearch.com/showthread.php?tid=2141&pid=4025#pid4025 根据回复是设置为0即可,...

5.拼音搜索时遇到的问题

更新时间:2012-12-26 12:12 t By HiLinz

...”、“强者风范”等影片。我采用的方法是把影片名通过分词再取其各关键词的首字母,如影片“强者风范” 分词获取首字母得到拼音字段为“qz,ff”,查询时,根据 pinyin:ff 可查找到 “强者风范” 。 我遇到的问题是: 1...

6.RE: 分词问题

更新时间:2010-10-14 21:10 t By hightman

这里需要用到 set_multi,不过鉴于该词先单字多字,所以达不到“云“+”计算“的效果。 使用 txt 附加词典时请显式地先指定 xdb 词典,以便 txt 词典生效。 $so->add_dict('dict.xdb', SCWS_XDICT_XDB); $so->add_dict('dict.txt', SCWS_XDICT_TXT); [c...

7.http-scws(基于scws的http协议中文分词) 更新至2.0版

更新时间:2011-06-27 20:06 t By smallevil

...只需一个命令即可使新词库生效 4.最大150K文本提交 5.可分词、提取高频词 6.支持GET与POST方式 7.支持短词、二元、主要单字、全部单字(基于scws功能) 8.支持标点过滤(基于scws功能) 简单测试结果: AMD 64位台式机四核CPU,程...

8.XSTokenizer 分词接口

XSTokenizer 分词接口 [XSTokenizer] 是搜索字段的分词接口定义,整个接口只要求实现一个方法 [XSTokenizer::getTokens], 自定义分词器用于 INI 配置文件中的 `tokenizer` 选项。 关于自定义分词器的详细用法剖析请阅读面...

9.获取返回结果如何处理

发布时间:2013-07-01 09:07 t By laiqn

...19999980926513671875;s:4:"attr";s:1:"n";}}} 我如何用php从中提取出分词结果,谢谢

10.为什么分词输入的内容不全?

发布时间:2014-04-16 16:04 t By tcnxm23

为什么分词输入的内容不全? 为什么一大段文字,分词输出 就只有1/4内容啊?

12345
  • 时间不限
  • 按相关性排序