搜索

大约有 146 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0049秒)

42.RE: 搜索蜘蛛来抓取,导致搜索日志不正常,热门搜索一直是不相关的内容

更新时间:2012-05-11 12:05 t By yunxiaoad2

'REQUEST_URI'是地址栏地址 你说的来路是referer[hr] 但是直接输入网址或收藏夹访问,也是来路为空的。 你不能排除有人直接把搜索结果页收藏起来吧?

43.RE: xunsearch服务器一到晚上就死了,重启后又好了,我把日志贴上来

发布时间:2012-11-13 01:11 t By yxlwfds

看来对并发大的支持不好啊。。

44.RE: xunsearch服务器一到晚上就死了,重启后又好了,我把日志贴上来

发布时间:2012-11-22 09:11 t By hzqbbc

不是吧,并发稍多就有问题?

45.RE: xunsearch服务器一到晚上就死了,重启后又好了,我把日志贴上来

发布时间:2012-11-22 11:11 t By hightman

当然不是这样,呵,楼主现在应该用得好好的。

46.RE: 搜索蜘蛛来抓取,导致搜索日志不正常,热门搜索一直是不相关的内容

发布时间:2012-05-11 12:05 t By Mr.

...蜘蛛都给判断一次? 其实知道这个$this->logQuery();是记录日志的话 你喜欢怎么处理就怎么处理 自己控制好就行 蜘蛛访问是不带来路请求的 至于你说www 我不加www的话不是可以匹配xxxx.com和www.xxxx.com么

47.RE: 搜索蜘蛛来抓取,导致搜索日志不正常,热门搜索一直是不相关的内容

发布时间:2012-08-30 18:08 t By Mr.

修改XS.php文件 第1558行 [php]$this->logQuery();[/php] 改为: [php]if($ret&&!stripos(str_ireplace(array('spider','bot','slurp'),'fuck123',$_SERVER['HTTP_USER_AGENT']),'fuck123')) $this->logQuery();[/php]

48.RE: xunsearch服务器一到晚上就死了,重启后又好了,我把日志贴上来

发布时间:2012-02-22 13:02 t By jatwxf

那我下次死的时候,就用这个方法查一下吧,不过现在我通过top查看到有三个 xs-searchd的进程 这个正常吗

49.RE: 搜索蜘蛛来抓取,导致搜索日志不正常,热门搜索一直是不相关的内容

发布时间:2012-05-11 08:05 t By yunxiaoad2

你这样不是过滤蜘蛛,是“通过代码中的域名访问时,可以记录log”,但从你2小时未记录log来看,似乎用户后者搜索引擎能通过别的域名访问你的网站 比如,你在代码中配置的是www.xxxx.com,而蜘蛛通过无www的域名访问 过滤...

50.RE: xunsearch服务器一到晚上就死了,重启后又好了,我把日志贴上来

发布时间:2012-02-24 17:02 t By hightman

初步看了就是死锁吧,反正并发越来越高,所有任务处理不完,直到内存耗尽。 下一步继续优化一下线程检测再看看吧,短时间你就自己定时重开服务吧。只要杀掉 xs-searchd子进程即可。

  • 时间不限
  • 按相关性排序