搜索

大约有 30 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0081秒)

11.xunsearch-1.0.0 正式版 (基于xapian/scws/php的开源中文全文搜索引擎)

发布时间:2011-09-23 13:09 t By hightman

...采用 C/C++ 开发多线程服务端,索引设计基于 Xapian 和 scws 中文分词。单库最多支持 40 亿条数据,在 500 万网页大约 1.5TB 的数据中检索时间不超过 1 秒(非缓存)。 [b]简单易用:[/b]前端是使用脚本语言编写的开发工具 (SDK),目前...

12.关于 Xunsearch PHP-SDK

关于 Xunsearch PHP-SDK Xunsearch (中文名:迅搜)是一套免费开源的专业中文全文检索解决方案,简单易用而且 功能强大、性能卓越能轻松处理海量数据的全文检索。它包含后端索引、搜索服务程序和前端 脚本语...

13.xunsearch-1.4.6 (基于 xapian 和 scws开源中文搜索引擎,高扛压不再死锁)

更新时间:2013-03-27 13:03 t By hightman

...采用 C/C++ 开发多线程服务端,索引设计基于 Xapian 和 scws 中文分词。单库最多支持 40 亿条数据,在 5 亿网页大约 1.5TB 的数据中检索时间不超过 1 秒(非缓存)。 [b]简单易用:[/b]前端是使用脚本语言编写的开发工具 (SDK),目前仅...

14.RE: scws1.1.8为什么第一次都很慢。

更新时间:2011-10-24 14:10 t By ci169

...文本: SCWS 是 Simple Chinese Words Segmentation 的缩写,即简易中文分词系统。 ************** 第一次提交 ********************************* No. WordString Attr Weight(times) ------------------------------------------------- 01. 缩写 n 6.72...

15.第四版遇到()和中英文混合分词的问题。

发布时间:2008-01-03 11:01 t By kts2tt

...出来。 而且 六灯夜视D502 这样的名称 也只能分出 中文, 英文和数字没有被分出来,是为什么?请教高手。 我用的是SCWS 扩展 PHP 5.2.x 版二进制文件!

16.2007简易分词第4版(scws-0.1.x)体验

发布时间:2007-06-06 11:06 t By hightman

... 这套分词目前的速度也超出了我的想象,实测 8万字节的中文文本在我的服务器上最快达 0.07秒(双核双CPU 3.0G),使用 php 扩展速度要略慢了 40% 左右,8万字节大概要 0.4~0.6秒不定。

17.共享自己的drupal模块出来,drupal commerce + xunsearch 做出强大的中文搜索,丢掉solr吧

发布时间:2014-03-11 01:03 t By drupal anywhere

今天旗下的http://www.anetb.com需要一个支持中文分词的搜索页,原drupal的太烂了, 我的做法是:结合xunsearch实现drupal commerce下的中文搜索 测试页:http://www.anetb.com/tsearch/demo/commerce/search.php , 可输入“奶粉”,我的站准备做这...

18.最新的主要变动

...rScws 接受参数作为复合等级 - 升级 libevent 到 2.x 版 - 修正中文 stopwords 不生效的问题 - 取消恼人的 NODB(S#506) 错误提示 - 新增获取文档匹配词表的接口 [XSSearch::setRequireMatchedTerm] 版本 1.4.7 (2013-7-30) ---------------------- - 优化安装脚本...

19.www.adminlink.net.cn上的xunsearch案例

更新时间:2011-12-08 12:12 t By adminlink

首页说下我为什么安装中文分词和全文搜索。 就是因为提取出更多的页面,让搜索引擎蜘蛛没完没了的爬,达到网页聚合的目的。这样做我估计对优化很有帮助。 选择scws的原因是比较了几个中文分词后,感觉scws是一个不错的...

20.修正utf-8版make_xdb_file.php的错误

发布时间:2011-06-09 09:06 t By itlong

...GBK dictionary 到80行,这是不参对utf-8字符处理的,不能对中文(中英混合)字符进行mb_substr($word, 0, $len)切分,[u]mb_substr($word, 0, $len)切分中文会是乱码的。[/u] 所以要人为添加字符串处理涵数,针对utf-8。 [php] function msubstr($str, $s...

123
  • 时间不限
  • 按相关性排序