SEO với Google Webmaster Tools – Tối ưu hóa

1

Trong phần trước, chúng tôi đã giới thiệu với các bạn về Google Webmaster Tools và cách thức đăng ký tài khoản Google Webmaster Tools. Phần này, chúng ta sẽ dùng Google Webmaster Tools để tối ưu hóa website.

Sitemap

Chúng ta thêm sitemap vào Google Webmaster Tools bằng cách bấm vào nút THÊM/KIỂM TRA SƠ ĐỒ TRANG WEB. Sau đó ta điền đường dẫn sitemap, ta có thể chọn gửi sơ đồ trang web hoặc kiểm tra sơ đồ trang web.

Một mẹo nhỏ mà bạn nên quan tâm, đó là mỗi khi website bạn có sự thay đổi về mặt nội dung hoặc cấu trúc. Bạn nên ngay lập tức update sitemap và submit lại sitemap này lên Google Webmaster Tools để các spider nhanh chóng crawl lại website của bạn. Điều này không những giúp spider của cập nhật được những trang nằm sâu bên trong cấu trúc web dễ dàng mà còn khiến spider quay lại trang của bạn sớm hơn dự kiến của nó.

Một trường hợp cũng thường xảy ra mà bạn cũng nên lưu ý đó là tình trạng không đồng nhất giữa các liên kết mà bạn submit trong sitemap với số lượng trang được index thực tế. Không phải mọi liên kết trong sitemap đều được index, nguyên nhân có thể là có nhiều nhưng thường gặp nhất là vấn đề truy cập của spider vào trang đó gặp khó khăn. Nếu số lượng này chênh lệch quá lớn, bạn nên tìm hiểu kĩ nguyên nhân và khắc phục ngay khi có thể.

Crawler Access

Phần thông tin này cho phép bạn xem và chỉnh sửa cách mà spider truy cập vào trang bạn, những vùng nào spider được phép truy cập, những vùng nào không. Bạn có thể tìm thấy file robots.txt cuối cùng mà spider đọc được trên trang web của mình tại đây, ngoài ra Google Webmaster Tools còn cung cấp cho bạn một công cụ tạo file robots.txt nếu bạn không rõ về nó.

Tạo Robots.txt

Ngoài ra, với công cụ này, bạn cũng có thể gỡ bỏ các URL đã được spider index khỏi các trang tìm kiếm nếu các trang đó có những thông tin mà bạn không mong muốn người dùng tìm thấy. Tuy nhiên, việc gỡ bỏ một URL có thể tốn thời gian lên đến 90 ngày tùy vào tốc độ cập nhật của Google. Do đó, nếu bạn không mong muốn 1 trang hoặc một danh sách trang nào đó, bạn nên sử dụng file robots.txt sẽ tốt hơn.

Sitelinks

Tính năng này có lẽ rất ít bạn được dùng đến vì không phải site nào Google cũng có sitelinks cho nó. Tính năng sitelinks chỉ hoạt động sau một thời gian nhất định và Google công nhận sitelinks mà thôi. Ngay cả VNWebmaster.COM hiện này cũng chưa có sitelinks.

Một công cụ tuyệt vời mà Google Webmaster Tools cung cấp đó là khả năng giúp bạn Edit sitelinks của website mình nếu bạn có sitelinks:

Và nếu bạn không hài lòng hoặc không muốn sử dụng một sitelink nào đó, bạn có thể block nó lại.

Tính năng này cho phép bạn dễ dàng thay đổi các kết quả tìm kiếm sang một site mới nếu bạn muốn đổi domain của mình. Việc này giúp bạn duy trì các kết quả tìm kiếm cũ trên trang tìm kiếm đồng thời giữ được PageRank. Tuy nhiên, không phải tất cả đều được giữ nguyên như nguyên mẫu ban đầu, điều này phụ thuộc vào cách mà bạn thực hiện đựa trên những hướng dẫn được Webmaster Tools dưa ra.

Setting Google Webmaster Tools

Phần này cho phép bạn cấu hình lại một số thông tin đối với kết quả tìm kiếm cũng như cấu chỉnh cách mà spider truy cập và tìm kiếm dữ liệu trên website. Hãy cùng tìm hiểu một số tính năng nổi bật:

– Geographic target: Nếu website của bạn hướng đến một đối tượng cụ thể về mặt địa lý bạn có thể tùy chỉnh đến quốc gia đó. Nếu tên miền của bạn có dạng .com/.net… nhưng bạn lại muốn hướng đến một quốc gia cụ thể nào đó thì hãy chọn nó. Nếu không cứ để nguyên.

– Rreferred domain: chúng ta đã biết về sự khác nhau của tên miền có www và không có www (non-www) và chúng ta có xu hướng lựa chọn một tên miền để thực hiện website. Nhưng thật không may là có đôi lúc bạn quên rằng giữa chúng có sự khác nhau nên trong website đôi lúc có sự lẫn lộn giữa các URL có www và non-www. Bằng cách lựa chọn loại tên tên nào làm tên miền chính. Bạn sẽ giúp Google biết được tên miền nào là tên miền chủ đạo trên website và các kết quả trên công cụ tìm kiếm có thể được tùy chỉnh lại theo sở thích của bạn.

– Crawl Rate: Tính năng ngày được rất nhiều người yêu thích vì nó giúp mình có thể điều chỉnh lại tỉ lệ và tốc độ thu thập dũ liệu tùy thuộc vào tình trạng website của mình. Chúng ta đều công nhận rằng không phải website nào cũng được sở hữu một server chạy độc lập và một nguồn tài nguyên băng thông dồi dào. Việc cho các spider truy cập website có thể ngốn một nguồn tài nguyên không nhỏ của website khiến cho website của bạn bị hết banwidth hoặc bị treo giữa chừng. Bằng cách tùy chỉnh tốc độ làm viết của spider trên website của mình, chúng ta có thể tránh được các spider quá “siêng năng” hoặc làm cho các spider siêng năng hơn.

Crawl Rate

– Parameter Handling: Không phải site nào cũng có điều kiện tối ưu hóa đường dẫn URL cho đẹp mắt và giúp cho spider dễ dàng di chuyển. Những site không có điều kiện làm việc đó thường gặp không ít khó khăn khi được index dữ liệu. Trường hợp này chúng ta hay gặp ở các diễn đàn.

Tính năng Parameter Handling có thể giúp các webmaster đỡ lo lắng phần nào bằng cách giúp bạn thông báo cho spider biết những thành phần nào trên URL có thể bỏ qua mà không làm ảnh hưởng đến việc hiển thị đúng trang cần thiết.

Xuân Trung

Chia sẻ.

1 phản hồi