...度的提高搜索速度和用户体验。 高性能:后端是采用 C/C++ 开发多线程服务端,索引设计基于 Xapian 和 scws 中文分词。单库最多支持 40 亿条数据,在 5 亿网页大约 1.5TB 的数据中检索时间不超过 1 秒(非缓存)。 简单易用:...
...的提高搜索速度和用户体验。 [b]高性能:[/b]后端是采用 C/C++ 开发多线程服务端,索引设计基于 Xapian 和 scws 中文分词。单库最多支持 40 亿条数据,在 5 亿网页大约 1.5TB 的数据中检索时间不超过 1 秒(非缓存)。 [b]简单易...
...是中文分词的攻关难点。 本分词法并无太多创新成分,采用的是自己采集的词频词典,并辅以一定的专 有名称,人名,地名,数字年代等规则识别来达到基本分词,经小范围测试大 概准确率在 90% ~ 95% 之间,已能基本满足一...
...的提高搜索速度和用户体验。 [b]高性能:[/b]后端是采用 C/C++ 开发多线程服务端,索引设计基于 Xapian 和 scws 中文分词。单库最多支持 40 亿条数据,在 5 亿网页大约 1.5TB 的数据中检索时间不超过 1 秒(非缓存)。 [b]简单易...
... 消除 php5.3 的警告信息, 重写 phpext/ 中的部分zend API, 统一采用 zend_parse_parameters() -- [b]scws-1.1.2 发布于 2010-5-9[/b] 这是一个小bug修正版,修正在非内存模式词库时会导致人名识别失败的bug. -- [b]scws-1.1.1 发布于 2010-3-4[/b] 这是...
... 消除 php5.3 的警告信息, 重写 phpext/ 中的部分zend API, 统一采用 zend_parse_parameters() -- [b]scws-1.1.2 发布于 2010-5-9[/b] 这是一个小bug修正版,修正在非内存模式词库时会导致人名识别失败的bug. -- [b]scws-1.1.1 发布于 2010-3-4[/b] 这是...
... 多个词之间用半角的逗号分隔,词汇中包含空格则注意采用引号包围。用法举例: ~~~ # 在 demo 项目中 添加搜索词 word 次数为 1 util/Logger.php --put=word demo # 在 demo 项目中 添加搜索词 word 次数为 123,添加搜索词 "word1 word2" 次数为 ...
Xunsearch SDK for PHP $Id$ 这是采用 PHP 语言编写的 xunsearch 开发包,在此基础上开发您自己的全文检索。 在此简要介绍以下几个文件: - lib/XS.php 入口文件,所有搜索功能必须包含此文件 - lib/XS.class.p...
...然后测试了一下可以达到效果了 1)、英文切分的长度采用了宏 2)、切分后可以返回所有字典中存在的词 但是不知道会不会有别的问题。。。 没法上传附件, 贴一下代码吧 // hightman.070902: multi segment // step1: split to ...
...是中文分词的攻关难点。 本分词法并无太多创新成分,采用的是自己采集的词频词典,并辅以一定的专有名称,人名,地名,数字年代等规则识别来达到基本分词,经小范围测试大概准确率在 90% ~ 95% 之间,已能基本满足一些...