发布时间:2010-06-26 11:06 t
By 逆雪寒
...后,程序中可以用来判断。
不知道是否可以目前? 感谢hightman 大哥 提供的那么好用的分词工具。
少量加几个不需要优化。。。。甚至加千把个万把个也可以不优化呵。
可以等待到比较稳定时再集中优化一次。
你的JSON不标准吧,要编码成 \uXXXX 那样的。
没根本性的影响。
你可以安装xcache,apc,eaccelerator其中的一个扩展来解决这个问题。
强烈推荐新手用户使用该功能配置和生成自己的配置文件。
你这个什么版本呀,这个问题应该已经修正过 是 UNIX98 的宏的问题。
你在什么平台下编译?
C的SDK也有在规划,但主要定位给WEB用,所以偏向于先开发脚本类的。
非常不错,可以继续琢磨一下如何优化。第二次搜索同一关键词缓存起作用后速度应该能明显变快
此外似乎没有开启拼音相关的功能,个人认为拼音相关的纠错功能还是很实用的