哦,是用tab符分开呀,我还以为用空格分开呢,我又重新生成了一次,看了一下分词效果还不错。 谢谢。
我用csv进行添加,多个csv文件每次ID都要是连续依次增加吗??用Indexer.php添加第二个时会清空第一次添加的内容吗??csv文件的id序列号重复了可以吗??
导入数据是你自己通过API提交的,Indexer.php 只是一个工具帮你全部一次性导入,以后的数据你要自己再设法导入,或者直接用 Indexer.php 重建
如果你能长时间用 $scws 对象那就可以一次加载,多次使用。如果每次在不同的脚本中 set_dict 那肯定是每次都加载啊。
这是C/S程序,fread是从网络上读取数据。应该是你要看性能要看服务端的,你这个应该是文件系统没有缓存所以第一次比较慢。
我电脑APACHE+PHP 4GB内存 E6300处理器 PHP简易中文分词(SCWS) 第4版(GBK) 在我电脑上用你默认的分词内容"陈凯歌并不是..." 第一次0.8xxxs 第二次0.098711013793945 而你们演示的就快多了 0.0039410591125488 为什么差距这么大?
..._o并未改名过来,必须手动改过了,是什么情况[hr] 又重建了一次,数据全丢了... 啥情况啊[hr] 问题挺严重的,也是自己写的程序,平滑update了几条数据 结果就只有update的那几条数据,其他的全没了,太恐怖了...
请仔细看说明,$so->get_result() 并不是一次调用,需要多次调用直到返回FALSE 例子1. 使用类方法分词
我想要用命令行平滑重建索引。 1,第一次建立索引的时候我用的是我自己定义的命令 例如: [root@xxx /]xxxToXunSearch 当我执行这个命令的时候 就建立索引了 2,现在,不想要以前的索引了, 准备全部删除,并重新建立新的索...
我改了一下,排除了专辑的干扰,第一次只在歌名里面做精准搜索: $docs = $search->search('song_name:\'\"大海\"\''); 这样搜出来的结果中,歌名最短的一定是完全匹配的。