搜索

大约有 1,000 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0098秒)

131.RE: 无法打开类型为 xdb 数据文件 什么问题?

发布时间:2012-10-05 18:10 t By 1185520774@qq.com

...ict/dict.xdb` in D:\99dy\include\scws\dict.class.php on line 155[/code] 什么原因? [/quote] 我也遇到同样问题了,配置都没问题,哪位高手能帮忙解决一下吗?急用! [/quote]看路径问题。。。。

132.关于scws和词库一些建议

更新时间:2011-04-23 21:04 t By lauxinz

建议支持词库里词可以纯英文单词,虽然在分词时英文单词可以自动识别切分开,但在关键词提取和非法词过滤时却无法提取出或过滤掉纯英文单词。 比如:我要从一些商品名中提取一些品牌:adidas nike。。。对商品名分词...

133.libscws问题

发布时间:2009-12-02 16:12 t By nftw

hightman您好: 我大致用README中提供例子对 "我一名中国程序员"这句话,进行分词, 代码如下: [php] #include #include #include #include int main(int argc, char *argv[]) { scws_t s; scws_res_t res, cur; char *text;// = "...

134.按字段值分面搜索

...性。 例如一本书包含主题、作者、年代等,而分面搜索指通过事物这些属性不断筛选、 过滤搜索结果方法,可以将分面搜索看成搜索和浏览结合。 如果您还不清楚它概念,敬请参阅[这篇文章][1]。 适用情况 -----...

135.RE: XSTokenizerScws一个使用问题

发布时间:2013-01-30 14:01 t By hightman

你自己搞错了! “一”本身不词,只因为二元结合法所以scws自动将其合成为一个词。 复合分词对原本长词情况处理,比如”中国“可以切成”中“+”国“+”中国“ 你问题必须 [code] $tk = $tokenizer->s...

136.模拟xunsearch增量索引方法

更新时间:2012-11-30 16:11 t By wish5115

...和删除时间大于这个值数据,然后加入到索引库。如果物理删除,须记录删除日志。这个根据我情况写,我由于里面没有删除时间,所以更新索引时记录了下已删除id,而且添加数据时默认创建时间和编辑时间...

137.对于分词一些困惑

更新时间:2010-10-13 17:10 t By 逆雪寒

...词 : 北海365 365 就这两个词。 然后我 搜时候 : 北海365 这时候返回分词 却只有: 365 “北海”不见了 如果我启动系统自带词典 那么“北海”又就被分成一个词。 但我想明确分词 , “ 北海365”...

138.RE: 为什么程序消耗内存越来越大

发布时间:2010-03-04 16:03 t By hightman

什么版本呢,新版本应该没有内存泄露了。 越来越大你监控方式什么呢?最好能给出较为准确数据以便判断。

139.RE: 谁在windows下测试通过了,请给写个说明。谢谢了。我这样做,但有错误。

发布时间:2010-10-30 20:10 t By hightman

你最好直接做一个 输出 phpinfo 页面,然后再在上面看真正生效php.ini以及相关配置 extension_dir 等值 你这个情况多数路径或PHP.INI位置不对

140.英文可以自定义词性吗?

发布时间:2013-08-30 05:08 t By mynoname

通常英文不需要分词,但很多时候词性需要,比如nike,dior这类品牌英文。 目前默认词性都en,有什么办法可否自定义词典来改变他词性。 还有个问题,就纯数字词性为什么en呢,不m? 望赐教。

  • 时间不限
  • 按相关性排序