搜索

大约有 546 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1000秒)

431.比如我要加入关键词 65Mn这种专业词怎么做

发布时间:2012-08-19 17:08 t By jason

比如我要加入关键词 65Mn这种专业词怎么做 rules->specials 自定义分词都试过 没法成功 谢谢

432.咨询SCWS准确率是如何计算出来的

发布时间:2013-10-08 17:10 t By tiankong

我想咨询一个问题。SCWS官网简介上指出,SCWS中文分词系统(Simple Chinese Word Segmentation)经小范围测试准确率在 90% ~ 95% 之间。 上面的准确率是如何计算出来的呢?或者有其他类似的标准测试工具吗?谢谢!

433.实时加载字典,服务器严重吃不消,有没有办法?

发布时间:2009-07-15 20:07 t By askie

如果分词次数太多,很容易引起服务器假死,linux服务器! 请问老大有没有加载到内容进行调用的方法?

434.RE: 一个字符搜索不到数据,必须两个字符或以上才行

发布时间:2014-06-06 11:06 t By bigxu

全文检索的单位通常是“词”。通常认为,一个普通的字没有意义。 实在有必要你可以自定义分词器,按字索引。

435.RE: 请问如何搜索字段值在一个长列表中的记录?

发布时间:2013-05-15 15:05 t By alicar

cate:1,3,5 cate分词用逗号判断split(,)

436.RE: 中文分组粗分方法

发布时间:2010-05-26 19:05 t By baobao

...立断 14.01 8.10 i WORD ATTR我都能理解。 上贴说的逐字分词后 计算权重的时候使用IDF,貌似就是类似基于字典的最大概率方式来定义权重,或者说是对于歧义的取舍。 TF IDF 具体是指什么? 使用的概率计算公式能阐述下么? ...

437.RE: XSTokenizerScws的一个使用问题

发布时间:2013-02-02 13:02 t By tisswb

...是因为二元结合法所以scws自动将其合成为一个词。 复合分词是对原本是词的长词情况处理的,比如”中国“可以切成”中“+”国“+”中国“ 你的问题必须是 [code] $tk = $tokenizer->setDuality(false)->setIgnore(true)->setMulti(11)->getRe...

438.关于自建字典问题

发布时间:2013-09-02 00:09 t By gwgwgw

先谢谢highman提供了这么方便的分词工具! 使用中发现,在字典的建立过程中,及php make_xdb_file.php 报了一大堆警告: Notice: Undefined index: tf in C:\xampp\php\xdb\make_xdb_file.php on line 93 Notice: Undefined index: idf in C:\xampp\php\xdb\make_xdb_file.p...

439.RE: 疑问?为什么索引大小大约为数据大小的3.5倍

发布时间:2012-03-06 01:03 t By coo

索引肯定比原来的数据要大的,因为要分词 然后存储吧, 一个句子可能被分割好多段

440.RE:1251

发布时间:2008-04-26 08:04 t By hightman

繁体分词演示: [url]http://www.hightman.cn/demo/scws/v48.cht.php[/url] 引擎本身不需要更改, 只需要将rules.utf8.ini和dict.utf8.xdb改为繁体的词典即可. 词典制作参见相关代码里的工具 scws-1.0 里包含了词典制作工具. 顺便奉上之前整理制作的...

  • 时间不限
  • 按相关性排序