...采用 C/C++ 开发多线程服务端,索引设计基于 Xapian 和 scws 中文分词。单库最多支持 40 亿条数据,在 500 万网页大约 1.5TB 的数据中检索时间不超过 1 秒(非缓存)。 [b]简单易用:[/b]前端是使用脚本语言编写的开发工具 (SDK),目前...
关于 Xunsearch PHP-SDK Xunsearch (中文名:迅搜)是一套免费开源的专业中文全文检索解决方案,简单易用而且 功能强大、性能卓越能轻松处理海量数据的全文检索。它包含后端索引、搜索服务程序和前端 脚本语...
...采用 C/C++ 开发多线程服务端,索引设计基于 Xapian 和 scws 中文分词。单库最多支持 40 亿条数据,在 5 亿网页大约 1.5TB 的数据中检索时间不超过 1 秒(非缓存)。 [b]简单易用:[/b]前端是使用脚本语言编写的开发工具 (SDK),目前仅...
...文本: SCWS 是 Simple Chinese Words Segmentation 的缩写,即简易中文分词系统。 ************** 第一次提交 ********************************* No. WordString Attr Weight(times) ------------------------------------------------- 01. 缩写 n 6.72...
...出来。 而且 六灯夜视D502 这样的名称 也只能分出 中文, 英文和数字没有被分出来,是为什么?请教高手。 我用的是SCWS 扩展 PHP 5.2.x 版二进制文件!
... 这套分词目前的速度也超出了我的想象,实测 8万字节的中文文本在我的服务器上最快达 0.07秒(双核双CPU 3.0G),使用 php 扩展速度要略慢了 40% 左右,8万字节大概要 0.4~0.6秒不定。
今天旗下的http://www.anetb.com需要一个支持中文分词的搜索页,原drupal的太烂了, 我的做法是:结合xunsearch实现drupal commerce下的中文搜索 测试页:http://www.anetb.com/tsearch/demo/commerce/search.php , 可输入“奶粉”,我的站准备做这...
...rScws 接受参数作为复合等级 - 升级 libevent 到 2.x 版 - 修正中文 stopwords 不生效的问题 - 取消恼人的 NODB(S#506) 错误提示 - 新增获取文档匹配词表的接口 [XSSearch::setRequireMatchedTerm] 版本 1.4.7 (2013-7-30) ---------------------- - 优化安装脚本...
首页说下我为什么安装中文分词和全文搜索。 就是因为提取出更多的页面,让搜索引擎蜘蛛没完没了的爬,达到网页聚合的目的。这样做我估计对优化很有帮助。 选择scws的原因是比较了几个中文分词后,感觉scws是一个不错的...
...GBK dictionary 到80行,这是不参对utf-8字符处理的,不能对中文(中英混合)字符进行mb_substr($word, 0, $len)切分,[u]mb_substr($word, 0, $len)切分中文会是乱码的。[/u] 所以要人为添加字符串处理涵数,针对utf-8。 [php] function msubstr($str, $s...