Google dừng crawl website nếu lỗi truy tập tin Robots.txt

0

Bạn có biết rằng nếu Google không thể thu thập tập tin robots.txt, nó sẽ ngừng thu thập dữ liệu trên toàn bộ website hay không? Điều này không có nghĩa là bạn cần phải có một tập tin robots.txt, để đơn giản bạn không cần tập tin này cũng được. Nhưng nếu website của bạn chứa tập tin robots.txt, Google biết nhưng nó lại không thể truy cập vào đó, công cụ này sẽ ngừng thu thập dữ liệu trên trang web của bạn.

Tiến sĩ Eric Kuan của Google đã đề cập đến vấn đề này trong một chủ đề trên Google Webmaster Help gần đây. Ông đã viết như sau:

“Nếu Google gặp khó khăn trong quá trình thu thập tập tin robots.txt, nó sẽ ngừng crawl toàn bộ phần dữ liệu còn lại trên website của bạn. Nếu điều này không thường xuyên xảy ra, bạn không cần phải quá lo lắng. Ngược lại, nếu tình trạng này xảy ra thường xuyên hoặc nếu bạn cảm thấy lo lắng, bạn nên liên hệ nhà cung cấp dịch vụ hosting để xem họ có gặp phải bất kỳ vấn đề nào trong thời gian xuất hiện lỗi thu thập dữ liệu hay không.”

Điều này cũng không có nghĩa là bạn không thể ngăn chặn tập tin robots.txt hiển thị trong kết quả tìm kiếm, bạn hoàn toàn có thể nhé nhưng hãy cẩn thận với điều đó. Và nếu tập tin robots.txt của bạn không trả về mã phản hồi 200 hoặc 404, tức là bạn đang gặp vấn đề rồi đấy. Tìm hiểu thêm tập tin robots.txt quy định bọ tìm kiếm như thế nào. Chúc bạn thành công!

 

Chia sẻ.

Chức năng bình luận đã bị đóng