搜索

大约有 530 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0983秒)

81.RE: 使用工具导出xdb后出错

发布时间:2011-09-23 10:09 t By lwliangma

今天又在网站上重新下载了 简体utf8 xdb字典,和make_xdb 等软件,做次操作, xdb->txt 再txt->xdb 就不行了,直接报错! 麻烦版主测试一下,给一个修改字典的方法,谢谢!

82.RE: 使用自定义词典时无法取得字典中的内容

发布时间:2011-08-10 09:08 t By hightman

1. 你的词典只有“再试一个”这个词,当然就只有它了 2. scws_new/scws_free 是C 里的函数,在PHP中是 scws_open/scws_close 建议在PHP中用对象方式使用 scws 即 $so = scws_new(); $so->set_charset('gbk'); $so->set_dict(...

83.RE: 1.1.2的 自定义字典无法使用

发布时间:2010-05-25 14:05 t By hightman

呃,如此看来只能猜想是不是跟php-fpm有点关系,但不合常理:( 您可否转到cli方式下用命令行测试几次看看

84.如何在虚拟服务器上使用分词功能!?

发布时间:2013-06-23 23:06 t By johnbaby

我之前测试都是在自己的电脑上,可以安装SCWS的插件,但是我现在想把网站移植到都网络上,才发现虚拟服务器没有办法安装分词插件,那我还能有什么办法呀? 非常感谢!!

85.RE: 关于addWeight()使用的一些注意(分享&讨论)

发布时间:2011-12-15 13:12 t By hightman

第 2. 点你可以对分类 id 不为 0 的统一在做索引时 $doc->addTerm('cid', 'have') 然后在搜索的时候 $search->addWeight('cid', 'have') 来提权

86.RE: 到底怎么使用addDb啊 能否给个示例代码啊

发布时间:2013-12-20 18:12 t By sundyandy

顶楼上!同求!

87.RE: 我想使用系统自动的分词功能,可是只看到有接口

发布时间:2011-11-25 09:11 t By limingyao

...么意思 你在配置文件中不要指定 tokenizer 选项就会自动使用 SCWS 分词了。 [/quote] 嗯,可能描述不清。 我就是想有一段文字,然后根据这段文字分词,实现类似tag这样的功能。其实和引擎关系不大,如果没有这个功能的话...

88.RE: 2台服务器使用同一个数据库问题

发布时间:2012-08-14 15:08 t By weizhao

管理员呐。。。。

89.RE: XSTokenizerScws的一个使用问题

发布时间:2013-01-30 14:01 t By hightman

是你自己搞错了! “是一”本身不是词,只是因为二元结合法所以scws自动将其合成为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->s...

90.RE: 使用工具导出xdb后出错

更新时间:2011-09-23 13:09 t By hightman

这些 PHP 工具在发布时都有测试通过,但PHP版本众多,加上各自配置又不一样,所以难免还有问题。目前 PHP 的工具部分照顾不过来,请尝试自行修正一下。 计划在下一版本中直接在 gen-scws-dict 中提供C版的工具,不要再通过PHP了

  • 时间不限
  • 按相关性排序