搜索

大约有 300 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1021秒)

141.www.adminlink.net.cn上的xunsearch案例

更新时间:2011-12-08 12:12 t By adminlink

首页说下我为什么安装中文分词和全文搜索。 就是因为提取出更多的页面,让搜索引擎蜘蛛没完没了的爬,达到网页聚合的目的。这样做我估计对优化很有帮助。 选择scws的原因是比较了几个中文分词后,感觉scws是一个不错的...

142.C版简易中文分词-cscwsd-0.0.3 发布

发布时间:2007-06-06 10:06 t By hightman

...下:运行后在本地绑定一个端口(缺省是 4700)监听处理分词服务,无其它功能。针对输入的文字进行分词后然后原样输出,注意每次输入均以 "\n" 作为处理标记,即一行处理一次并返回。这样作的目的在于提高分词的效率和通...

143.XSTokenizerScws::getResult

... 方法 public array getResult(string $text) $text string 待分词的文本 {return} array 返回词汇数组, 每个词汇是包含 [off:词在文本中的位置,attr:词性,word:词] 源码: sdk/php/lib/XSTokenizer.class.php#L339 (显示) public function getResult($text...

144.SCWS自定义修改问题

发布时间:2013-11-20 16:11 t By kimiduan

我们在修改的过程中想把书名号里的文字和单词不进行分词处理,请问要如何修改?是不是先判断书名号?

145.哪个是scws的最新版?

发布时间:2007-12-18 17:12 t By hwin

我看了一下,有点晕乎乎,不知道哪个是最新的 我想要一个php下的简单分词的实现, 词库用mysql效率高还是cdb高?

146.自定义 SCWS 词库

...定义 SCWS 词库 如之前所说,我们所有的索引分词器默认为 scws,这也是我们开发的开源分词系统, 内置的词库基本上能满足绝大多数应用。但总有例外,这也就是即将说的如何自定义词库。 全局自定义词库 --------...

147.xunsearch-1.4.8 (基于 xapian+scws 的开源中文搜索引擎,小问题优化改进)

发布时间:2013-12-11 15:12 t By hightman

...代码兼容性 2. 增加用户案例文档:USERCASE 3. 改进自定义分词器 XSTokenizerScws 接受参数作为复合等级 4. 升级 libevent 到 2.x 版 5. 修正中文 stopwords 不生效的问题 6. 取消恼人的 NODB(S#506) 错误提示 7. 新增获取文档匹配词表的接口 X...

148.libscws的问题

发布时间:2009-12-02 16:12 t By nftw

...DME中提供的例子对 "我是一名中国的程序员"这句话,进行分词, 代码如下: [php] #include #include #include #include int main(int argc, char *argv[]) { scws_t s; scws_res_t res, cur; char *text;// = "Hello, 我名字叫李那曲是一...

149.RE: 我在Linux下安装成功了,php中也运行了,但是分词不对,不知道为什么?

发布时间:2010-05-09 02:05 t By hightman

词典没有正确放置或设置吧,看看你的 php.ini 中关于 scws.default.fpath 的设置

150.遇到一个分词错误的问题

发布时间:2014-02-08 16:02 t By robinjia

...j ? /un 后来发现可以通过修改rule.utf8.ini里的规则来调整分词结果,不知道有没有更好的办法?

  • 时间不限
  • 按相关性排序