搜索

大约有 30 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1975秒)

1.RE: 使用SCWS的libscws C源码,测试分词成功

发布时间:2014-01-03 10:01 t By banderuilq

我知道我的问题出在哪了,我把这个文件存储为UTF8格式的文件就好了,输出结果就正常了。

2.RE: 我想使用系统自动的分词功能,可是只看到有接口

发布时间:2011-11-26 11:11 t By zxing

...楼主的意思,他希望xunsearch能提供分词接口,给其他程序使用。 我们经常会遇到对一篇文章提取tag的操作,如果XS将分词接口给出了那我们就需要另外的程序进行分词了。 我也希望使用这个功能。

3.求助:SCWS(简易中文分词) 基于HTTP/POST的分词 API 使用说明

发布时间:2013-06-30 18:06 t By laiqn

我是一个新手,对于php只懂一些皮毛,现在想使用 SCWS(简易中文分词) 基于HTTP/POST的分词的API 但是知道怎么调用,我用这个方式调用API,结果显示在网页上,我要如何调用才能将结果获取下来呢?比如我能将结果直接存在一...

4.RE: 我想使用系统自动的分词功能,可是只看到有接口

发布时间:2011-11-25 09:11 t By limingyao

...么意思 你在配置文件中要指定 tokenizer 选项就会自动使用 SCWS 分词了。 [/quote] 嗯,可能描述清。 我就是想有一段文字,然后根据这段文字分词,实现类似tag这样的功能。其实和引擎关系大,如果没有这个功能的话...

5.RE: 我想使用系统自动的分词功能,可是只看到有接口

发布时间:2011-11-25 12:11 t By hightman

还是明白! 你把这段文字用scws切割会有问题吗?如果你这段字是用空格或逗号分隔,那么你可以用 split 这个分词器啊。 搜索的时候搜索任何一个分割后的TAG都可以搜索到。

6.在 Xunsearch 使用 SCWS

在 Xunsearch 使用 SCWS 为了便于用户在安装完 `Xunsearch` 后可以通过服务端内置的 scws[1] 实现分词, 而需要另外再安装 scws 的 php 扩展。从 `1.3.1` 版本起,`Xunsearch` 的 PHP-SDK 中加入 [XSTokenizerScws] 类,可通过搜...

7.RE: 我想使用系统自动的分词功能,可是只看到有接口

发布时间:2011-11-25 13:11 t By limingyao

[quote='hightman' pid='255' dateline='1322196172'] 还是明白! 你把这段文字用scws切割会有问题吗?如果你这段字是用空格或逗号分隔,那么你可以用 split 这个分词器啊。 搜索的时候搜索任何一个分割后的TAG都可以搜索到。 [/quote] ...

8.使用SCWS的libscws C源码,测试分词成功

发布时间:2014-01-02 18:01 t By banderuilq

1,下载了SCWS的源码,使用其中的libscws; 2,并下载了 [简体中文(UTF-8) (3.9MB,28万词,2013/01/08更新)] scws-dict-chs-utf8.tar.bz2。 3,使用示例代码: #include #include #define SCWS_PREFIX "/usr/local/scws" main() { scws_t s; scws_res_t r...

9.疑惑:分词数上限和标点符号控制

发布时间:2013-05-10 17:05 t By Brady.Li

...------------------------------- 这个开源项目真心实用,最近在使用一切顺利过关于两个函数比较疑惑。 使用的是php_scws.dll (1.2.1) ,php扩展 其一: strpos($w['word'],"5) 参数limit,设置分词数上限,可否控制上限?参数是什么 其...

10.RE: 怎样才能 字母数字汉字组合 按照词典分成一个词语呢?

更新时间:2013-07-03 11:07 t By shuyinglee

...代码,最终功夫负有心人,成功的避过了中英文混合,使用字典中的词语分词,我用的是 scws-1.2.1.tar.bz2 这个版本,因为能发附件,如果大家需要联系我: Email: shuyinglee@126.com[hr] 使用方法: 1.To patch tar xfvj scws-1.2.1.tar.bz...

123
  • 时间不限
  • 按相关性排序