... v,n 结果只有 n 的,测试~v,n,vn 结果还是会出现包含这些词性的。 这。。。似乎完全有BUG,稍后查。 [/quote] 感谢 magike 网友再度来信指出,目前已经在CVS中作了修正,预计在下一版本同时发布。 看了一下确实是宏定义的...
...次为“词语"(由中文字或3个以下的字母合成), "TF", "IDF", "词性", 字段时间用空格或制表符分开,数量不限,可自行对齐以美化。 3) 除“词语”外,其它字段可忽略不写。若忽略,TF和IDF默认值为 1.0 而 词性为 "@" 4) 由于 tx...
...次为“词语"(由中文字或3个以下的字母合成), "TF", "IDF", "词性", 字段时间用空格或制表符分开,数量不限,可自行对齐以美化。 3) 除“词语”外,其它字段可忽略不写。若忽略,TF和IDF默认值为 1.0 而 词性为 "@" 4) 由于 tx...
... $text string 要判断的文本 $xattr string 要判断的词性, 参见 getTops 的说明 {return} bool 文本中是否包含指定词性的词汇 源码: sdk/php/lib/XSTokenizer.class.php#L382 (显示) public function hasWord($text, $xattr){ $text = $this->applySet...
可以添加对词性的判断,以及词性的权重比,应该可以达到你想要的效果~ 例如:在SCWS分析以上三句词性得到: 你/r 给/v 我/r 买/v 的/uj 衣服/n 你/r 看/v 的/uj 书/n 一/m 件/q 衣服/n 以此可以看出,其中匹配的是 你/r 的/uj 衣服/n ...
...分词为: 现在时/n 间/f 期待分词结果:现在 时间 ②词性方面如何修正呢? 例如,希望将,“了”的词性由 v 改为: e 新建一个userdic辞书,然后添加: 了 1.0 1.0 e 通过:scws_add_dict(s, "/usr/local/scws/etc/userdict.utf8...
...text string 待分词的文本 $limit string 在返回结果的词性过滤, 多个词性之间用逗号分隔, 以~开头取反 如: 设为 n,v 表示只返回名词和动词; 设为 ~n,v 则表示返回名词和动词以外的其它词 $xattr {return} array 返回词...
...布于 2011-04-20[/b] 修正夹杂在汉字中间的1-2个英文字符的词性为 en 而不是原来的 un 导致清除符号时消失. 调整将数字后面的独立 % 纳入整词作为百分比,如 33.3% 作为整词而不再是 33.3 和 % 修改连字符(-)和下划线(_)的规则,当出...
...属性的词,假如品牌的属性设置为pp,因为这些纯英文词的词性切分后都为/en。在非法词过滤时也是如此,不能使用scws_has_word()函数来判断是否有指定属性的词,假如非法词属性为*,非法的英文单词切分后属性为/en。 另外有两个...
...,还是恶俗?大家怎么看的?”这个句子,无论怎么调整词性语法规则表都是会分成“武松杀 /nr 嫂 /ng 雕塑 /n 是 /v 艺术 /n , /un 还是 /n 恶俗 /n ? /un 大家 /r 怎么 /r 看 /v 的 /uj ? /un”。 我的理解是,这是因为程序里并没有判...