好长时间不写C了,写着有点吃力,所以暂时先把最基本需要的分词及高频词提取写出来了。 后续等有点空时会慢慢实现更多的功能及加入相关脚本。
[quote='NCT' pid='4108' dateline='1299895804'] 咋木人回复啊? [/quote] 嘛~这个就不用这么复杂你完全可以导出TXT修改在创建合适的数据库 查查资料 你可以解决的
当在中文中加入英文后,英文加头部时,只能得到英文分词,而后面的中文却没用了;英文中间时,仅能得到英文前的汉字的分词;英文放尾部时,英文分词也得不到,这是哪里没配置的原因么? 我在网站上在线分词那输入中...
dict_user.txt 里写是对的,词性不要用叹号,随便写个别的吧。叹号表示删除此词,不分就要让它成为词啊。
可能是你的词被切成了其它不合理的单位吧. 加到special没有用. 你最好测试一下被检索的语句/文本切词后的效果...
...1.2.1) ,php扩展 其一: strpos($w['word'],"5) 参数limit,设置分词数上限,可否不控制上限?参数是什么 其二: set_ignore(bool yes) 参数:true的话,表示忽略标点,但是实测中好像' "这种标点是无法忽略的, 如在我使用中会切出 N...