Bạn cần hỗ trợ?
Hotline
Powered by Tú Cao

Sửa lỗi Blogspot bị chặn bằng tệp robots.txt

Đảm bảo rằng Googlebot không bị Robots.txt chặn
Kiểm tra tệp robots.txt của trang web của bạn và hiểu rõ về nó.
Mở miền của bạn trong thanh địa chỉ như thế này yourdomain.com/robots.txt
Nếu bạn tìm thấy khác, hãy xóa mã và gửi lại cho Google.
Định dạng cơ bản là
  1. User-agent: [user-agent name] 
  2. Disallow: [URL string not to be crawled] 
Chặn tất cả Trình thu thập thông tin web khỏi tất cả nội dung
  1. User-agent: *  
  2. Disallow: / 
Việc sử dụng cú pháp này trong tệp robots.txt sẽ yêu cầu tất cả các trình thu thập dữ liệu web không thu thập dữ liệu bất kỳ trang nào trên yourdomain.com, kể cả trang chủ.
Cho phép tất cả Trình thu thập thông tin web truy cập vào tất cả nội dung
  1. User-agent: *  
  2. Disallow:  
Trong trường hợp của bạn (Có thể)
  1. User-agent: Googlebot  
  2. Disallow: / 
Cú pháp này chỉ yêu cầu trình thu thập thông tin của Google (tên tác nhân người dùng Googlebot) không thu thập dữ liệu bất kỳ trang nào từ miền của bạn.
Bạn cũng có thể kiểm tra điều này bằng công cụ kiểm tra robots.txt của Google.
Nó sẽ xuất hiện một cái gì đó như thế này.
Chèn bất kỳ đường dẫn nào bạn muốn tìm xem Google có thu thập dữ liệu hay không, sau đó nhấp vào kiểm tra.

Để gửi lại tệp robots.txt, hãy nhấp vào tùy chọn gửi sau khi cập nhật tệp.
Nó sẽ xuất hiện như thế này.
Sau đó, chỉ cần nhấp vào gửi lại để cập nhật tệp robots.txt trong Google và kiểm tra dấu thời gian sau đó.
Top 8 trình thu thập dữ liệu web và bot phổ biến nhất
Google- Googlebot
Bing- Bingbot
Yahoo- Slurp
DuckDuckGo- DuckDuckBot
Baidu - Baiduspider
Facebook Hit- facebot bên ngoài
Alexa- ia_archiver (+ http://www.alexa.com/site/help/webmasters; crawler@alexa.com)
Ahrefs- AhrefsBot
© Nhà Đạt blog . All rights reserved. Developed by Jago Desain