Re-re crawler
Re-re crawler蜘蛛/爬虫属于类型,由Re-Re Web Studio开发运行。您可以继续阅读下方信息,以深入了解Re-re crawler基本信息,用户代理和访问控制等。
基本信息
Re-re crawler的基本信息如下表。但部分不是很规范的蜘蛛和爬虫,可能存在信息不明的情况。
- 蜘蛛/爬虫名称
- Re-re crawler
- 类型
- 其他
- 开发商
-
Re-Re Web Studio
- 当前状态
-
活动
用户代理
关于Re-re crawler蜘蛛或者爬虫的用户代理字符串,IP地址和服务器,所在地等信息如下表格所示:
Re-re Studio
-
Re-re Studio
-
7Siters/1.09
-
7Siters/1.08
-
7Siters/1.08w
-
Re-re Studio
-
Re-re Studio
-
Re-re Studio
-
7Siters/1.07
-
7Siters/1.07
-
777Siters/1.05
- 用户代理字符串
- Re-re Studio (+http://2re.site/)
- 首次出现
- 2019-12-12 04:40:30
- 最后出现
- 2020-04-20 05:20:28
- 遵循robots.txt
- 未知
- 来源
-
IP地址(5) |
服务器名称 |
所属国家 |
109.94.211.139 |
109.94.211.139 |
RU |
84.54.28.117 |
84.54.28.117 |
RU |
45.93.12.228 |
45.93.12.228 |
RU |
45.94.20.171 |
? |
RU |
45.147.0.125 |
? |
RU |
- 用户代理字符串
- 7Siters/1.09 (+https://7ooo.ru/siters/)
- 首次出现
- 2020-02-26 10:04:44
- 最后出现
- 2020-03-21 07:20:23
- 遵循robots.txt
- 未知
- 来源
-
IP地址(2) |
服务器名称 |
所属国家 |
31.40.202.182 |
? |
RU |
91.188.212.153 |
91.188.212.153 |
RU |
- 用户代理字符串
- 7Siters/1.08 (+https://7ooo.ru/siters/)
- 首次出现
- 2019-07-08 10:17:10
- 最后出现
- 2020-01-19 08:38:53
- 遵循robots.txt
- 未知
- 来源
-
IP地址(2) |
服务器名称 |
所属国家 |
45.147.252.191 |
? |
RU |
185.154.72.12 |
? |
RU |
- 用户代理字符串
- 7Siters/1.08w (+https://7ooo.ru/siters/)
- 首次出现
- 2020-01-16 06:20:30
- 最后出现
- 2020-01-16 06:20:30
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
193.150.99.21 |
193.150.99.21 |
RU |
- 用户代理字符串
- Re-re Studio (+http://rere.7ooo.ru/)
- 首次出现
- 2019-12-07 04:54:02
- 最后出现
- 2019-12-09 10:36:43
- 遵循robots.txt
- 未知
- 来源
-
IP地址(2) |
服务器名称 |
所属国家 |
45.93.12.228 |
? |
RU |
45.145.169.69 |
45.145.169.69 |
RU |
- 用户代理字符串
- Re-re Studio (+http://re-re.ru/)
- 首次出现
- 2017-12-04 05:00:38
- 最后出现
- 2019-09-07 05:13:27
- 遵循robots.txt
- 未知
- 来源
-
IP地址(9) |
服务器名称 |
所属国家 |
91.199.112.169 |
91.199.112.169 |
UA |
45.131.47.234 |
45.131.47.234 |
RU |
91.241.182.28 |
91.241.182.28 |
UA |
92.249.15.225 |
92.249.15.225 |
RU |
193.187.106.208 |
193.187.106.208 |
RU |
46.150.246.64 |
46.150.246.64 |
RU |
45.138.147.8 |
45.138.147.8 |
RU |
194.156.105.15 |
194.156.105.15 |
RU |
94.154.191.236 |
94.154.191.236 |
RU |
45.93.15.166 |
45.93.15.166 |
RU |
109.94.211.139 |
109.94.211.139 |
RU |
84.54.28.117 |
84.54.28.117 |
RU |
45.93.12.228 |
? |
RU |
45.94.20.171 |
? |
RU |
45.147.0.125 |
? |
RU |
45.145.169.69 |
45.145.169.69 |
RU |
185.154.72.12 |
? |
RU |
185.142.96.129 |
holkitsor.mgnhost.ru09 |
RU |
193.233.72.147 |
vds33015.mgn-host.ru |
RU |
82.202.197.118 |
? |
RU |
92.53.64.195 |
? |
RU |
92.53.64.196 |
? |
RU |
80.68.14.161 |
161.14.68.80.donpac.ru |
RU |
80.68.15.103 |
? |
RU |
82.202.197.231 |
? |
RU |
- 用户代理字符串
- Re-re Studio (+http://re-re.ru/)
- 首次出现
- 2017-12-04 05:00:38
- 最后出现
- 2019-09-07 05:13:27
- 遵循robots.txt
- 未知
- 来源
-
IP地址(9) |
服务器名称 |
所属国家 |
185.154.72.12 |
? |
RU |
185.142.96.129 |
holkitsor.mgnhost.ru09 |
RU |
193.233.72.147 |
vds33015.mgn-host.ru |
RU |
82.202.197.118 |
? |
RU |
92.53.64.195 |
? |
RU |
92.53.64.196 |
? |
RU |
80.68.14.161 |
161.14.68.80.donpac.ru |
RU |
80.68.15.103 |
? |
RU |
82.202.197.231 |
? |
RU |
- 用户代理字符串
- 7Siters/1.07 (+http://7ooo.ru/siters/)
- 首次出现
- 2018-02-17 14:19:57
- 最后出现
- 2019-02-01 01:18:24
- 遵循robots.txt
- 未知
- 来源
-
IP地址(4) |
服务器名称 |
所属国家 |
80.68.14.161 |
? |
RU |
82.202.197.118 |
82.202.197.118 |
RU |
80.68.15.103 |
? |
RU |
82.202.197.231 |
? |
RU |
- 用户代理字符串
- 7Siters/1.07 (+http://7ooo.ru/siters/)
- 首次出现
- 2018-02-17 14:19:57
- 最后出现
- 2019-02-01 01:18:24
- 遵循robots.txt
- 未知
- 来源
-
IP地址(4) |
服务器名称 |
所属国家 |
80.68.14.161 |
? |
RU |
82.202.197.118 |
82.202.197.118 |
RU |
80.68.15.103 |
? |
RU |
82.202.197.231 |
? |
RU |
- 用户代理字符串
- 777Siters/1.05 (+http://777s.ru/siters/)
- 首次出现
- 2017-11-27 10:06:11
- 最后出现
- 2017-11-27 10:06:11
- 遵循robots.txt
- 未知
- 来源
-
IP地址(2) |
服务器名称 |
所属国家 |
46.38.62.175 |
vps.node74.doloremipsum.com |
RU |
80.68.14.161 |
161.14.68.80.donpac.ru |
RU |
访问控制
了解如何控制Re-re crawler访问权限,避免Re-re crawler抓取行为不当。
是否拦截Re-re crawler?
对于未知蜘蛛或者爬虫。它的用途对网站来说可能是好的,也可能是坏的,这取决于它是什么。所以说,这需要站长进一步分析判断这些尚不明确的爬虫行为,再作最终决定。
但,根据以往的经验,未声明行为目的及未命名的蜘蛛爬虫,通常都有不可告人的秘密,我们理应对其行为进行控制,比如拦截。
通过Robots.txt拦截
您可以通过在网站的 robots.txt 中设置用户代理访问规则来屏蔽 Re-re crawler 或限制其访问权限。我们建议安装 Spider Analyser
插件,以检查它是否真正遵循这些规则。
# robots.txt
# 下列代码一般情况可以拦截该代理
User-agent: Re-re crawler
Disallow: /
您无需手动执行此操作,可通过我们的 Wordpress 插件 Spider Analyser 来拦截不必要的蜘蛛或者爬虫。