lsv1_ads.txt_crawler
lsv1_ads.txt_crawler蜘蛛/爬蟲屬於營銷型別,由Luis Sastre Verzun開發執行。您可以繼續閱讀下方資訊,以深入瞭解lsv1_ads.txt_crawler基本資訊,使用者代理和訪問控制等。
基本資訊
lsv1_ads.txt_crawler的基本資訊如下表。但部分不是很規範的蜘蛛和爬蟲,可能存在資訊不明的情況。
- 蜘蛛/爬蟲名稱
- lsv1_ads.txt_crawler
- 型別
- 營銷
- 開發商
-
Luis Sastre Verzun
- 當前狀態
-
活動
使用者代理
關於lsv1_ads.txt_crawler蜘蛛或者爬蟲的使用者代理字串,IP地址和伺服器,所在地等資訊如下表格所示:
- 使用者代理字串
- lsv1_ads.txt_crawler/0.1; +https://github.com/lsv1
- 首次出現
- 2018-10-24 10:02:49
- 最後出現
- 2018-10-24 10:02:49
- 遵循robots.txt
- 未知
訪問控制
瞭解如何控制lsv1_ads.txt_crawler訪問許可權,避免lsv1_ads.txt_crawler抓取行為不當。
是否攔截lsv1_ads.txt_crawler?
一般不需要攔截,尤其是如果你自己也受益於搜尋引擎優化服務。不過,如果你擔心伺服器資源佔用等問題,且您都不使用這些工具,當然也可以選擇攔截它們。
通過Robots.txt攔截
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 lsv1_ads.txt_crawler 或限制其訪問許可權。我們建議安裝 Spider Analyser
外掛,以檢查它是否真正遵循這些規則。
User-agent: lsv1_ads.txt_crawler
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: lsv1_ads.txt_crawler
Disallow: /
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: lsv1_ads.txt_crawler
Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。