4 Vấn đề cần kiểm tra khi traffic hữu cơ sụt giảm sau quá trình tái thiết kế website

Đăng ngày: 23 Tháng 4 2014
Đánh giá bài này
(0 bình chọn)
4 Vấn đề cần kiểm tra khi traffic hữu cơ sụt giảm sau quá trình tái thiết kế website 4 Vấn đề cần kiểm tra khi traffic hữu cơ sụt giảm sau quá trình tái thiết kế website

Mặc dù các nhà thiết kế và phát triển web thường rất giỏi trong việc thiết kế và lập trình website, nhưng không phải tất cả họ đều được trang bị tốt để có thể xử lý các vấn đề SEO nảy sinh, đặc biệt khi khởi chạy lại/ tái thiết kế (relaunch/ redesign) website.

Nếu bạn vừa khởi chạy lại trang web của mình, hiện tại nó đang đánh mất lưu lượng truy cập hữu cơ, vậy làm thế nào bạn biết mình nên bắt đầu từ đâu?

Dưới đây là danh sách cơ bản những vấn đề phổ biến nhất thường bị bỏ qua trong quá trình relaunch website. Mặc dù nguyên nhân dẫn đến lưu lượng truy cập sụt giảm có rất nhiều, nhưng dưới đây là 4 phạm vi bạn nên tiến hành kiểm tra trước tiên.

1. Kiểm tra cập nhật thuật toán

Đầu tiên và trước hết, hãy chắc chắn bạn không nhầm lẫn tình trạng mất mát lưu lượng truy cập này là do vấn đề relaunch website trong khi nguyên nhân thực sự của nó lại đến từ cập nhật thuật toán.

Kiểm tra cập nhật thuật toán panda

Nếu tình trạng xảy ra khi tái thiết kế website cùng thời điểm với sự ra đời của một bản cập nhật thuật toán nào đó, bạn cần kiểm tra đồng thời cả những vấn đề tiềm năng bị nghi ngờ là một phần của bản cập nhật thuật toán cũng như các vấn đề liên quan đến việc tái thiết kế này.

Để xác định sự sụt giảm là do cập nhật thuật toán, trước tiên hãy kiểm tra xem sự sụt giảm hữu cơ đó có xảy ra trên nhiều công cụ tìm kiếm hay không.

Nếu lượng suy giảm traffic (tính theo tỷ lệ phần trăm) chỉ diễn ra trên một công cụ tìm kiếm, chúng ta có thể kết luận nguyên nhân là do cập nhật thuật toán. Ngoài ra, bạn cũng nên kiểm tra trang Lịch sử Cập nhật thuật toán Google của Moz và các blog như Search Engine Land để xem những bản cập nhật nào khác đang được mọi người đưa ra thảo luận. Xem thêm các thuật toán được cập nhật và cách xử lý tại chuyên mục Google SEO

2. Kiểm tra chuyển hướng 301

Đây là một trong những khía cạnh tôi thường bỏ sót nhất trong quá trình tái thiết kế website, nó thường là thủ phạm chính của việc đánh mất lưu lượng hữu cơ trên trang.

chuyển hướng link bị lỗi

Chuyển hướng 301 giống như một “sự thay đổi thẻ địa chỉ” dành cho các robots của công cụ tìm kiếm, chúng nói cho công cụ tìm kiếm biết URL cũ đã vĩnh viễn được chuyển sang URL mới.

Nếu trang web được thay đổi sang URL mới, robots tìm kiếm vẫn sẽ đi đến URL cũ để index nội dung trên trang. Ví dụ, các liên kết từ những website khác có thể vẫn còn tồn tại trên URL cũ, vì vậy khi robots tìm kiếm đi theo các liên kết này, chúng sẽ đi đến địa chỉ URL cũ.

Nếu website không sử dụng chuyển hướng 301 để nói cho robots biết vị trí của URL mới, robots sẽ từ bỏ việc index nội dung trên trang và cuối cùng trang web đó sẽ không được index.

Để xác định website của mình có đang thiếu chuyển hướng 301 hay không (hoặc có lẽ chúng không được lập trình chính xác), hãy nhìn vào lưu lượng hữu cơ trên các trang web riêng lẻ của website trước và sau khi tái thiết kế. Tôi thường chạy báo cáo hiển thị các entry pages hàng đầu từ công cụ tìm kiếm hữu cơ trước khi khởi chạy lại site và so sánh với lượng traffic sau khi redesign.

Đối với những trang web có lưu lượng sụt giảm đáng kể, hãy kiểm tra URL của nó bằng cách nhập URL trong trình duyệt của bạn. Bạn đã thực hiện chuyển hướng hay chưa? Nếu kết quả trả về hiển thị lỗi 404, đó có thể cũng là những gì mà robot sẽ tìm thấy.  

Một vấn đề khác có thể là do loại chuyển hướng bạn sử dụng trên website của mình. Hãy chắc chắn sử dụng chuyển hướng 301 trong trường hợp này bởi vì chuyển hướng 301 sẽ nói cho công cụ tìm kiếm biết trang web đã được thay đổi địa chỉ vĩnh viễn. Bạn không nên sử dụng chuyển hướng 302 trong hầu hết các tình huống tái thiết kế website.

3. Kiểm tra tập tin Robots.txt

Tập tin robots.txt là bộ các hướng dẫn dành cho robots của công cụ tìm kiếm, nó chỉ ra các trang web cần index và các trang web robots cần tránh lãng phí thời gian truy cập.

Kiểm tra tập tin robots.txt

Không hiếm trường hợp tập tin robots.txt trên server thử nghiệm (trước khi ra mắt website) chặn robots tìm kiếm index bất kỳ trang web nào trên server đó (bởi vì website vẫn đang được phát triển).

Thỉnh thoảng, khi website được chuyển đến server trực tiếp, tập tin robots.txt từ server thử nghiệm có thể vô tình bị sao chép sang server trực tiếp.

Nếu tập tin robots.txt không được cập nhật để cho phép các robots tìm kiếm index website sau khi tái thiết kế trên máy chủ trực tiếp, công cụ tìm kiếm sẽ không thể truy cập vào các trang web, điều này dẫn đến việc chúng sẽ bị loại bỏ khỏi tiến trình index của công cụ tìm kiếm.

Để tìm hiểu tập tin robots.txt của website mình có đang ngăn chặn robots tìm kiếm hay không, hãy mở trình duyệt và nhập tên miền của bạn theo sau /robots.txt trong thanh địa chỉ. Hành động này sẽ cho bạn nhìn thấy những tập tin robot. Sau đó, tìm kiếm “disallow” trên trang web. Mặc dù bạn có thể muốn che giấu một số trang web nhất định, giống như các trang được bảo vệ bằng mật khẩu, vậy thì chỉ những trang web “được bảo vệ” mới xuất hiện trong bản kê Disallow này mà thôi. Để biết thêm chi tiết tập tin robots.txt bạn xem thêm chuyên mục SEO cơ bản

4. Kiểm tra bản thân trang web

Ngoài việc chặn robots của công cụ tìm kiếm bằng tập tin robots.txt, các trang web riêng lẻ có thể ngăn chặn robots thông qua sử dụng thuộc tính Noindex trong thẻ meta robots. Như đã trình bày ở trên với tập tin robots.txt, bạn muốn chặn các trang web nhất định khỏi quá trình index của công cụ tìm kiếm do rất nhiều lý do.

Tuy nhiên, tương tự như trường hợp tập tin robots bị sao chép từ server thử nghiệm sang server trực tiếp, tôi đã nhìn thấy những sai lầm tương tự được thực hiện trên các trang web trong server thử nghiệm do sử dụng thẻ meta robots đã vô tình bị sao chép sang server trực tiếp.

Hãy kiểm tra trang web của mình có sử dụng thẻ meta robots hay không bằng cách xem mã nguồn của trang. Nếu có, thẻ meta robots sẽ trông giống như thế này:

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

 và nó sẽ nằm ở đầu trang.

Giải quyết vấn đề một cách nhanh chóng

Bất kể lý do gì khiến website bị sụt giảm traffic, khi phát hiện ra vấn đề, hãy giải quyết nó càng nhanh càng tốt. Khi robots của công cụ tìm kiếm không thể tìm thấy trang web (hoặc index chúng), nó sẽ sớm loại bỏ trang ra khỏi quá trình index để tránh tình trạng gửi lại các trang web không hợp lệ cho người dùng. Vì vậy, hãy hành động nhanh chóng để lấy lại thứ hạng cho website.

Xuân Trung

Gửi bình luận

Hãy nhập đầy đủ các thông tin yêu cầu trong ô có dấu (*). Không được phép sử dụng mã HTML.

LIKE để ủng hộ bạn nhé!

 

Tham gia diễn đàn seo hàng đầu Việt Nam

Has no content to show!