搜索

大约有 278 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0050秒)

131.RE: libscws的问题

发布时间:2009-12-07 01:12 t By hightman

词典不可能才438286字节, 肯定是出错了. 词典至少会10MB以上吧...

132.RE: 分词的关键词选择

发布时间:2010-02-24 11:02 t By sblig

谁有这方面的词典 我们这只是把关键词分出来了 但是没有向 小i机器人那样的 回答的词典

133.RE: 分词初试,结果不对

更新时间:2010-09-07 16:09 t By hightman

看上去你的分词程序并没有成功加载词典。 你最好按照安装说明进行操作,不必复制DEMO.PHP,毕竟你的安装路径可能和我不一样。要依据词典路径的

134.RE: 关于数词、量词

发布时间:2013-12-06 10:12 t By hightman

这个应该没办法,所有的调整都是基于词典,也就是词典的优先级最最高了。 可以用程序扫出类似的词来删除它们,因为互联网语料库这些自动都列到词里了。

135.RE: 官方和提供的下载不一样,并且官方实例还写了错误代码

发布时间:2010-07-14 17:07 t By hightman

...因为你用错误词了,48.php 是针对UTF-8的,而你调用了gbk的词典,把你的词典语句改为 dict.utf8.xdb 即可 3. dict_extra.txt 也必须是UTF-8编码 4. 删除词条,因为陈凯歌其实可能是因为人名关系导致切成词,可能会不受词典影响 5. 如果...

136.RE: 大bug,add_dict会覆盖原来默认设置的dict,必须显式设置原dict

发布时间:2011-06-10 13:06 t By hightman

这怎么是BUG呢,本来就是这样。只不过是在你没有任何词典的情况下它才默认加载默认词典。 并不是一开始就自动加载默认词典。。。

137.关于多粒度的建议

发布时间:2013-12-24 13:12 t By anzm2005

...试了下目前的多粒度分词,有一种情况不能实现 比如词典里有: 我们是中国人 我们是中国 我们是 中国人 中国 当要分句子: 我们是中国人 无论怎么设置,都无法分出 我们是中国 我们是 这些词 就是目前是按...

138.RE: 加载字典出现乱码 pscws3

发布时间:2010-09-16 17:09 t By hightman

pscws2,3和scws-的词典不是共用的~~23用里面自带的那个旧词典才行。

139.RE: [特别发布] 纯PHP编写的xdb词典导入导出工具!!

更新时间:2009-07-05 10:07 t By heraldboy

非常兴奋! 今天上来网站看,发现你已经做好了这个工具,还没测试,先赞一下。 站长真是给人意外惊喜,马上试试先。[hr] 发现以下错误,不过应该没有大问题,另我不是在命令行方式执行的: Notice: Undefined variable: mask in C:\...

140.XSIndex::setCustomDict

... public void setCustomDict(string $content) $content string 新的词典内容 源码: sdk/php/lib/XSIndex.class.php#L495 (显示) public function setCustomDict($content){ $cmd = array('cmd' => XS_CMD_INDEX_USER_DICT, 'arg1' => 1, 'buf' => $content); $this->execCommand($cmd, XS_C...

  • 时间不限
  • 按相关性排序