搜索

大约有 500 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.2941秒)

71.自定义“词性”

发布时间:2010-06-26 11:06 t By 逆雪寒

... dn 就是我自定义词性。这样我在scws 分词后,程序中可以用来判断。 不知道是否可以目前? 感谢hightman 大哥 提供那么好用分词工具。

72.RE: 一个现象

发布时间:2011-11-07 13:11 t By hightman

...C服务端没有发现任何错误。 如果你服务器装有GDB,可以试一下在GDB环境下面启动? 对于 stop 失败情况你可以试试用 faststop 这样会对子进程强行发送 KILL 信号

73.RE: 索引到一大半时候出错退出,有没有办法继续?

发布时间:2011-10-25 10:10 t By tisswb

[quote='hpxl' pid='116' dateline='1319506745'] 500万条数据可以分段来读取,比如每次10000条,就不会出现上面php错误了。判断是不是某条数据是不是已经存在了,可以根据主键来判断是不是已存在,存在跳过就可以了。例如: [php]$qu...

74.RE: setLimit问题

发布时间:2011-12-15 13:12 t By hightman

应该可以,但100限制是给CACHE做准备,也比较符合用户需求。 您需要一次展示这么多搜索结果吗? 你可以试试 src/task.cc 中 746 行: 746 if (limit > MAX_SEARCH_RESULT) limit = MAX_SEARCH_RESULT; 在行开头加上 // 然后重新编译...

75.RE: 搜索log

发布时间:2012-04-05 10:04 t By hightman

这个xunsearch暂时还没有提供这项功能,但可以先变通如下方式处理: 在提取API后面自己再简单加个判断?现在新版 1.3.1 提供了 scws 接口,只要把这些黑词加到自定义词典,并取一个独特词性,那么就可以用 XSTokenizerScws::has...

76.繁體中文分詞

发布时间:2007-11-28 19:11 t By markwu

Highyman: 能請問一下,我可以將 SCWS 用在繁體中文分詞上嗎?如果可以,我應該如何產生繁體中文分詞詞庫呢? 我預備使用 UTF-8 作為中文編碼而非 Big5。 謝謝你分享。 Mark

77.在 Xunsearch 使用 SCWS

...S 为了便于用户在安装完 `Xunsearch` 后可以通过服务端内置 scws[1] 实现分词, 而不需要另外再安装 scws php 扩展。从 `1.3.1` 版本起,`Xunsearch` PHP-SDK 中加入 [XSTokenizerScws] 类,可通过搜索服务端执行分词...

78.RE: 实时加载字典,服务器严重吃不消,有没有办法?

发布时间:2009-08-06 00:08 t By hightman

...你用是什么方式,是PHP还是cAPI, set_dict 时第二参数可以指定将词典读入内存. [/quote] 安装了apache扩展,使用PHP进行调用,也可以设置读入内存? 如果可以话,每次分词还要设置词典么? [/quote] 这个要, 仅仅对...

79.RE: -这个符号是否有额外含义?

发布时间:2012-06-21 10:06 t By hightman

http://www.ftphp.com/scws/demo/v4.php 在这可以查分词结果 用附带工具 util/Quest.php 加上 --show-query 可以看实际拆分语句,这样你就明了了。

80.RE: 关于使用过程权限控制问题

更新时间:2014-09-30 00:09 t By qiuxis

...denied(C#13, localhost:8384) [/quote] 原因是防火墙问题。 你可以先试 #setenforce 0 然后在打开你搜索页,搜索看看,这时候能正常搜索了 那可以确定是防火墙设置出了问题了 先把防火墙设置改回来 #setenforce 1 然后再增加...

  • 时间不限
  • 按相关性排序