应网友要求,现试提供该功能,满足一些云应用平台的需求,请不要发起过于频繁的请求给服务器造成难以承受的压力,谢谢! 使用网址及说明参见:[url]http://www.ftphp.com/scws/api.php[/url]
经过较长一段时间的维护和改进,目前 xunsearch 运行较为稳定。今天很高兴发布 1.3.1 正式版,在 SDK 层面加入了许多用户诉求的 scws 分词接口,并修正了许多小 BUG,强烈建议所有用户升级到这个最新稳定版本。 [b]主要更新如...
我们一直致力于开源的 xunsearch 中文全文检索和 scws 中文分词开发。 我们一直在努力做得更好,如果您对我们的成果表示认同或对您有所帮助, 我们乐意接受您的捐赠。我们的开源事业离不开您的支持。 [url]http://www.xunsearch...
新增索引和更新索引速度好慢好慢。 基本都在分钟级别,有的甚至3-4分钟。这是为何? 项目只要求对content字段检索,其他字段都不需要参与检索和分词。 帖出我的配置文件: [tweetId] type = id tokenizer = none [content] type = b...
[quote='rogical' pid='405' dateline='1325559589'] 是指a b = a or b ? [/quote] 当然不是这个意思,你说的用 setFuzzy() 就可以实现。 因为分词的关系,有些长词其实可以细分为短词。 比如当一篇文章中包含“管理制度”的时候,它被分...
... stopwords 不生效的问题 - 取消恼人的 NODB(S#506) 错误提示 - 新增获取文档匹配词表的接口 [XSSearch::setRequireMatchedTerm] 版本 1.4.7 (2013-7-30) ---------------------- - 优化安装脚本,请使用 --help 查看 - 采用 Yii2 的代码标准格式化 php-sdk 代码 -...
...hr] 我找到了楼主原先的一个回复: 建议把这些要过滤的词新增加文本词典,属性设为 ! 即可。或者自己根据词性直接在取得返回值的时候排除它。。 尝试了下,是可以的!!!多谢
... $cws->add_dict(ROOT_PATH."inc/spider/dict_extra.txt", SCWS_XDICT_TXT);//新增词库 $cws->set_ignore(true); //var_dump($cws); //添加中文分词 $cws->send_text($a); dict_extra.txt 已经增加了一行:享鑫 1 1 n,但是“享鑫金属”还是只有金属被匹配出来
...了一些 BUG,强烈各位用户建议升级到该最新稳定版本。新增的主要功能如下: 1. 新增搜索日志管理工具 util.Logger,可用于管理热门搜索、相关搜索、搜索建议和纠错等内容。 [url]http://www.xunsearch.com/doc/php/guide/util.logger[/url] ...