不知道还有没有其它更好的解决办法?不能改代码,也必须保留武这个姓。正在考虑加一条规则,可是我不懂那些词性语法规则的运作原理。
...erence to `_intel_fast_memcpy' 请问下管理员,这个需要怎样解决。 系统版本: CentOS release 5.4 (Final) 64位
这个是买的VPS,里面数据的。重装有些困难啊。 我本地的32位跑的都正常。。 郁闷。。。[hr] 管理员,请问还有其他什么方法可以解决吗?[hr] 有没有什么办法,在其他机器上编译好了。直接拷贝到上面去运行啊?
编译环境:VS2010 在生成过程中,出现如下错误: 无法打开包括文件:“php.h”: No such file or directory PHP的源代码和php5ts.lib已放到对应的目录下,请问如何解决?
在使用/demo/search.php 搜索的时候,出现的。权限需要怎么解决? 错误:[XSException] ../../../../usr/local/xunsearch/sdk/php/lib/XS.php(2481): Permission denied(C#13, localhost:8384)
添加索引失败,查看indexd.log: ERROR failed to open/lock the input file (FILE:tmp/touch_db.snd, ERROR:No locks available) indexd[13366] NOTICE import exit (DB:18touch.db, FLAG:0x0000, PID:13600, EXIT:-1) 把touch_db.sn删除掉,仍然会出现这种问题,如何解决?
我遇到的问题和你应该一样,我词典里有 内衣和保暖内衣,当我对句子 保暖内衣进行分词的时候,确只分出来 保暖内衣,而丢失了内衣词。请问,有没有人知道怎么解决,在线等待!!
比如我要搜a4纸,但是实际上我的意思是要出a4复印纸,问题是基词的分割是a4与纸,指定同义词的时候就会无效,谁有更好的解决方案? 我的方案是过滤这个关键字,用setQuery的or语法查出来
在使用scws分词的时候,如果输入40多个“卡”字,最后分出来的那个词少了一个字节,就是说在utf8下原本3字节的一个“卡”字,变成了两个字节,形成了一个乱码。在线测试也会出现这种情况,大家怎么解决啊???
我下了个PSCWS23 代码并成功安装,结果分词只对汉字有效。我用的其中的pscws3分词。 比如我输入“2009年” 分词结果却为“年”。也就是说,它只输出了汉字部分 请问这该怎么解决