... 分词也有问题. 我喜欢/n 吃/v 康师傅/n 牛肉面/n[hr] 大概知道什么原因了,我爱,我喜欢都在词库中标注为名词n 我爱 14.71 4.59 n 我喜欢 14.90 4.82 n 请问是词库有问题还是故意这样标注的?[hr] 你 1.28 0.00 r 我 1...
...入xunsearch啊? 给个例子就好了,我一点也不懂,就不知道往哪个方向找,哪位大神稍微教一下?谢谢了~~ 如果能给个示范代码就万分感激了
想配置下scws_set_multi()这个函数,但是不知道xunsearch在哪里调用scws的代码,请问下xunsearch在哪里调用?
...,"on","or","org","one","our","out","open","over","only"]之类的呀。 请知道的朋友帮看看,谢谢了! ------我的尝试-- 难道是php配置问题吗? php.ini配置中把open_basedir=.:/usr/local/xunsearch/sdk/php/:/usr/local/nginx/html/了呀!(我nginx装在/usr/local/nginx下...
...代码生成的搜索骨架。按理说应该搜索不会这么慢的,不知道什么原因。 有朋友知道,请麻烦看下,谢谢了。
...使用 SCWS(简易中文分词) 基于HTTP/POST的分词的API 但是不知道怎么调用,我用这个方式调用API,结果显示在网页上,我要如何调用才能将结果获取下来呢?比如我能将结果直接存在一个变量中,寻求指点,谢谢!
...有更高一些的效率。因此,如果您在使用 `API` 时能明确知道当前文档是新增的,那么 > 还是建议使用 `add` 这个 `API`。 示范代码如下: ~~~ [php] $data = array( 'pid' => 234, // 此字段为主键,是进行文档替换的唯一标识 'subject' =>...
...l整合了scws,效果很棒,现在我们自己增加了一些词库,不知道xdb与txt相比,那个效率更高 另外,scws对于中英文分词效果不是很好,即文中的中文分得还可以,但对于页面中的英文部分,包括email,url,host这类处理效果比较差,...
...接。 服务器端已经是 bin/xs-ctl.sh -b inet start 状态了 不知道是哪里错了,请大家帮忙指正!!!?[hr] 解决了。是我不细心啊!
...直接放進postgres裡面, 讓它也能夠有中文分詞的能力? 我知道Bamboo那邊好像已經有這方面的插件: http://code.google.com/p/nlpbamboo/wiki/TSearch2 但是我需要的是繁體中文的中文分詞, 所以就來這裡問問有沒有方法? 或是有沒有這方面的...