搜索

大约有 546 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.1007秒)

1.分词 对于 词库 里有宝马x6 分词 为宝马和马x6 分词有问题 词库 里 只能添加 宝马 不能宝马x6 (中文 英文和数字在一起 存在分词问题)

发布时间:2013-07-04 16:07 t By louyefeiwu

分词 对于 词库 里有宝马x6 分词 为宝马和马x6 分词有问题 词库 里 只能添加 宝马 不能宝马x6 (中文 英文和数字在一起 存在分词问题) #解析后的 QUERY 语句:Xapian::Query((奥迪a6:(pos=1) SYNONYM (奥迪:(pos=89) AND 迪A6:(pos=90))))

3.在PPC等处理器上测试SCWS分词算法,不能正确分词

发布时间:2013-05-28 10:05 t By tiankong

问题:我在PPC等处理器上测试scws,发现都不能正确分词。 例如将“乒乓球拍卖完了”分词后结果为: WORD: 乒/un (IDF = 0.00) WORD: 乓/un (IDF = 0.00) WORD: 球/un (IDF = 0.00) WORD: 拍/un (IDF = 0.00) WORD: 卖/un (IDF = 0.00) WORD: 完/un (IDF = 0.00) W...

4.我想问个简单的问题,我的分词有了,然后我怎么使用这些分词啊?

发布时间:2010-05-07 18:05 t By xyliufeng

我想问个简单的问题,分词有了,然后我怎么使用这些分词啊?(在搜索引擎中)谢谢!

5.自定义分词

自定义分词器 `Xunsearch` 默认内置了功能强大的 [SCWS][1] 分词系统,也附加提供了一些简单常见的分词规则, 但考虑到用户的个性需求,特意提供了自定义分词器的功能。 > note: 自定义分词器存在一个缺陷,它不支持存...

6.XSTokenizer 分词接口

XSTokenizer 分词接口 [XSTokenizer] 是搜索字段的分词接口定义,整个接口只要求实现一个方法 [XSTokenizer::getTokens], 自定义分词器用于 INI 配置文件中的 `tokenizer` 选项。 关于自定义分词器的详细用法剖析请阅读后面...

7.求助:SCWS(简易中文分词) 基于HTTP/POST的分词 API 使用说明

发布时间:2013-06-30 18:06 t By laiqn

...新手,对于php只懂一些皮毛,现在想使用 SCWS(简易中文分词) 基于HTTP/POST的分词的API 但是不知道怎么调用,我用这个方式调用API,结果显示在网页上,我要如何调用才能将结果获取下来呢?比如我能将结果直接存在一个变量中...

8.set_multi()复合分词问题

发布时间:2012-10-23 10:10 t By muzi1012

想请教下,假如我开启复合分词,在返回的分词结果里怎么区分哪些是复合分词的结果,哪些是平常的结果? 比如我对“中国人”分词,返回中国+人+中国人,怎么单独提取复合词 中国+人呢?

9.分词问题

发布时间:2010-10-14 16:10 t By cp115

我在分词中没加$so->add_dict("dict.xdb",SCWS_XDICT_XDB); $so->add_dict("dict.txt",SCWS_XDICT_TXT); 这个情况下“云计算”分词如下:"云 计算"。我加了$so->add_dict("dict.xdb",SCWS_XDICT_XDB); $so->add_dict("dict.txt",SCWS_XDICT_TXT); 并在txt文件中加入 “...

10.RE: 二元分词问题

发布时间:2011-11-15 10:11 t By icebolt

已经实现了一元分词了,不过一元分词以后不能用near之类的。还想问一下,我现在想用自定义的分词库,从哪里配置

  • 时间不限
  • 按相关性排序