搜索

大约有 50 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.6848秒)

31.RE: file_put_contents()生成的txt文件来当txt字典无法取得里面的内容!

更新时间:2011-08-09 14:08 t By 999

汗,看来就是因为“\r”问题。 hightman老兄,是用那个来判断换行的?\r\n ?[hr] 测试了一下windows下使用的是“\n”,linux下是不是使用了"\r\n" ? 汗,本地windows,服务器linux........ 继续测试。。。

32.RE: XSTokenizerScws的一个使用问题

发布时间:2013-02-02 13:02 t By tisswb

...9526203'] 是自己搞错了! “是一”本身不是词,只是因为二元结合法所以scws自动将其合成为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 的问题必须是 [code] $...

33.RE: 数据导入 乱码问题

更新时间:2011-11-25 18:11 t By vist2007

...-Front 和 登陆服务器连mysql查看数据 此外的乱码是不是因为的终端是 GBK 的?请尝试用 util/Quest.php 进行测试吧 4.测试中文没有结果 util/Quest.php -p entry 小雪 如果乱码就加上 -c gbk 试试 [hr] 找到 原因了 驱动用的是 XSDatabasePDO_M...

34.RE: small50,big161这种词汇搜索不到

发布时间:2013-06-18 11:06 t By hightman

@FIXME: 先记录一下,这是因为既是自定义分词器又指定了 non_bool 参与权重计算。 那么 SDK 端先按自定义分词器拆分重新组合成查询语句,发送到 xapian 解析器时由于不是 boolean prefix,因此它又会调用内部切词法再次切割。 简...

35.RE: 我想过滤由‘人’‘得’‘到’‘直’ 这几个字组成的关键字

发布时间:2010-05-31 01:05 t By hightman

...者自己根据词性直接在取得返回值的时候排除它。。 因为是包含的作法的话,是不是“人们”“人家”“人民”全都要过滤了??这样肯定不合适,所以建议直接根据词性过滤吧。这些无意义的词词性通常可以确定的!

36.RE: 虎踞龙蟠BBS全文检索正式上线

发布时间:2011-11-25 14:11 t By hightman

...上 AND (time:2011 OR time:2010) 效果可能会比 compare 快多了。 因为在测试时我选择任意时间反而经常比2年内反应快一些。

37.RE: 是先添加 范围 还是先排序的问题 这两个方法同时用会出问题 出来的count 不对

发布时间:2012-05-03 15:05 t By hightman

这个问题已经提过了。。。暂无好办法,建议另行调用不加排序的 count() 因为概率估算的关系,区间过滤+排序就导致概率失效

38.RE: 安装scws-1.1.5时遇到问题:Unable to load dynamic library

更新时间:2011-01-12 18:01 t By xxxG9onno

...] 好,先谢谢的回复。 我的系统环境是 centOS5 因为我linux的功底基本没有,所以也不能判断系统中是否装有两个php。我手动把php装在 /usr/local/php 中,是编译安装的,我用 find 令命搜索的结果是: find / -name php -print /...

39.RE: addRange后count不准确

发布时间:2014-10-31 18:10 t By akstrom

... [/quote] 是阿,这个问题很验证,能否不用估算这个?因为毕竟还没到百度那个等级,要一个相对准确的count,希望可以解决

40.hightman好,请问有没有好的相关度算法推荐下?

发布时间:2008-04-03 15:04 t By routerpipe

..."一件衣服" 代码匹配出来相关度最大的是"看的书",因为有2个词相同,而按照我们人的字面理解,相似度最大应当是"一件衣服" ,但这个只有1词个相同,所以程序就判断没有2个词相同的相关度大。 这个问题可能涉及到对...

12345
  • 时间不限
  • 按相关性排序