搜索

大约有 665 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0057秒)

81.RE: 一个题外话,请教hightman大侠编写php扩展的经验

发布时间:2010-08-19 00:08 t By hightman

其实PHP就是由大量扩展组成的,你可以参阅其它扩展的源码来协助编写自己的

82.RE: 请问如何搜索字段值在一个长列表中的记录?

发布时间:2013-05-15 15:05 t By alicar

cate:1,3,5 cate分词用逗号判断split(,)

83.RE: 一个题外话,请教hightman大侠编写php扩展的经验

发布时间:2010-08-19 09:08 t By wrongway

非常感谢,其他扩展的源码我也看过,其中有大量的宏不明白是什么意思,看了一些资料明白了其中的一部分。

84.RE: 关于SCWS基于HTTP/POST的分词API的一个问题

发布时间:2011-04-19 15:04 t By tuzwu

[quote='hightman' pid='4506' dateline='1303195392'] 新版会开发一个API直接在函数里生成临时词库供调用。 [/quote] 感谢管理员回复. 其实我的意思大概可以简化为: 最长分词模式. 分出来的词要达到符合语法的最长.这个难度估计不小,呵呵...

85.XSTokenizerScws的一个使用问题

发布时间:2013-01-29 10:01 t By tisswb

是这样的,我使用XSTokenizerScws进行分词 [php] $tokenizer = new XSTokenizerScws; $tk = $tokenizer->setIgnore(true)->setMulti(11)->getResult("是一"); print_r($tk); [/php] 结果是 [quote] Array ( [0] => Array ( [off] => 0 [attr] => m ...

86.在做一个PHP的项目。 部分功能用到scws。 大家多多交流

更新时间:2010-05-11 18:05 t By xiaolan

...析,取出权重以及出现频率比较高的, 作为这条信息的一个最高检索依据,然后在用户搜索的时候 对再对用户输入的关键字/词进行分析, 然后用关键字分词的结果到数据库进行搜索, 最终用户看到的结果, 首要的排序依据 ...

87.一个题外话,请教hightman大侠编写php扩展的经验

更新时间:2010-08-18 19:08 t By wrongway

最近在研究PHP扩展的开发,看了一些资料,发现没有一篇文章、一份资料能非常全面的把PHP扩展开发讲明白,hightman写的scws的php扩展非常好,可以分享一下参考了哪些资料,还有经验总结么?

88.RE: 怎样才能 字母数字汉字组合 按照词典分成一个词语呢?

发布时间:2013-07-03 14:07 t By hightman

其实SCWS内部是允许最多2个非中文字符夹杂中文成词的,超过2个的就无效了。 比如”Q币“,”T恤“这种是支持的。像你这么长的编号支持通用性不强。。

89.RE: 10秒 10元 这样的想做为一个词要怎么配置

发布时间:2011-10-31 11:10 t By hightman

哦,那暂时是没有这项功能的。RULES必须针对全部汉字(或全角符号)

90.RE: 建议能否增加一个检索过滤接口 SetFilter

发布时间:2012-02-27 10:02 t By hightman

其实在 xunsearch 的世界里,你的情况完全可以这样作。。。。 假设分类字段 catalog ID为 A 下的子分类为 AA,AB,AC ... 那么你给子分类的数据建索引时,加入索引词 A,通过 XSDocument::addTerm 实现。 那么将来搜索 catalog:A 就相当于包...

  • 时间不限
  • 按相关性排序