搜索

大约有 69 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.4862秒)

1.我设置计算20-10为什么只输出计算

发布时间:2014-05-14 15:05 t By a67314117

我设置计算20-10为什么只输出计算啊,后面的20-10哪去了,

2.Xunsearch 并发占用资源如何计算

发布时间:2013-08-15 16:08 t By HiLinz

1、xunsearch 运行时,批量生成索引时,消耗CPU和缓存如何计算? 2、xunsearch 运行时,用户搜索时,消耗CPU和缓存如何计算? 3、单库搜索支持多大并发,并发数受什么因素影响? 还有一个疑问,Xunsearch 的索引库是把数据缓存...

3.求TF/IDF算法(官方的计算器没有作用)

发布时间:2013-05-22 13:05 t By zouhc

...不知道TF/IDF如何获得。 通过你提过的新词生词的TF/IDF计算器(http://www.xunsearch.com/scws/demo/get_tfidf.php) 结果计算出来的大部分内容都是一样的值,而且也无法用于分词。 另外用这个计算计算得到的TF和IDF值和词典中原先...

4.求TF/IDF算法(官方的计算器没有作用)

发布时间:2013-05-22 13:05 t By zouhc

...不知道TF/IDF如何获得。 通过你提过的新词生词的TF/IDF计算器(http://www.xunsearch.com/scws/demo/get_tfidf.php) 结果计算出来的大部分内容都是一样的值,而且也无法用于分词。 另外用这个计算计算得到的TF和IDF值和词典中原先...

5.问一下词典中的DF是怎么计算出来的?

发布时间:2009-06-23 16:06 t By macdylan

请问是通过什么方法计算出来的? 样本来源呢? 感谢hightman的帮助.

6.RE: Xunsearch 并发占用资源如何计算

发布时间:2013-08-15 19:08 t By hightman

1-2: 无法计算哦,最大化的利用呗 3. 并发没有任何硬性限制,只要硬件条件许可就可以,主要还是看 qps 吧,可以拿 ab 压压看 4. 当然不是把索引库缓存到内存了,但OS会有一部分文件缓存。

7.分词问题

发布时间:2010-10-14 16:10 t By cp115

...XDB); $so->add_dict("dict.txt",SCWS_XDICT_TXT); 这个情况下“云计算”分词如下:"云 计算"。我加了$so->add_dict("dict.xdb",SCWS_XDICT_XDB); $so->add_dict("dict.txt",SCWS_XDICT_TXT); 并在txt文件中加入 “云计算 14.65 5.68”分词后就变成“云计算”...

8.咨询SCWS准确率是如何计算出来的

发布时间:2013-10-08 17:10 t By tiankong

我想咨询一个问题。SCWS官网简介上指出,SCWS中文分词系统(Simple Chinese Word Segmentation)经小范围测试准确率在 90% ~ 95% 之间。 上面的准确率是如何计算出来的呢?或者有其他类似的标准测试工具吗?谢谢!

9.冒昧的问一下——怎么用tf和idf来计算权重?

发布时间:2011-12-21 18:12 t By hotpot

冒昧的问一下——怎么用tf和idf来计算权重啊?谢谢各位高手了~

10.RE: Xunsearch 并发占用资源如何计算

发布时间:2013-08-16 14:08 t By hightman

这种没有很量化的指标,硬盘越快越好,内存越大越好,CPU越快越好

  • 时间不限
  • 按相关性排序