Hướng dẫn tạo robots.txt chuẩn SEO nhất cho Blogspot
Mục lục bài viết
Robots.txt Blogspot là gì?
Robots.txt là một tập tin văn bản đơn giản nằm trong thư mục gốc của website Blogspot. Nó chứa các hướng dẫn cho các trình thu thập dữ liệu của công cụ tìm kiếm (như Googlebot) về cách truy cập và thu thập dữ liệu các trang web của bạn. Việc tạo robots.txt chuẩn SEO có thể giúp tối ưu hóa việc thu thập dữ liệu và lập chỉ mục website của bạn, từ đó cải thiện thứ hạng SEO.Vai trò của robots.txt
- Quản lý lưu lượng truy cập: giúp bạn kiểm soát số lượng yêu cầu mà các trình thu thập dữ liệu gửi đến website của bạn.
- Ngăn chặn lập chỉ mục các trang không mong muốn: cho phép bạn ngăn chặn các trình thu thập dữ liệu lập chỉ mục các trang web không mong muốn, chẳng hạn như trang quản trị, trang đăng nhập,... hoặc các file nhất định trên trang web của bạn (ví dụ như hình ảnh, PDF,...)
- Tối ưu hóa SEO: giúp bạn tối ưu hóa quá trình thu thập dữ liệu của các công cụ tìm kiếm, giúp website của bạn được lập chỉ mục hiệu quả hơn.
Cách cài đặt file robots.txt
Để thêm file robots.txt tùy chỉnh cho Blogger, bạn chỉ cần làm theo các bước dưới đây:- Đăng nhập vào trang tổng quan Blogger.
- Nhấn vào Cài đặt → Trình thu thập thông tin và lập chỉ mục
- Bạn hãy bật tùy chọn Bật Robots.txt tùy chỉnh
- Ở mục Robots.txt tùy chỉnh các bạn nhập cấu hình tùy chỉnh vào.
- Nhấn Lưu để hoàn thành.
Cấu trúc của robots.txt
- User-agent: xác định các trình thu thập dữ liệu mà bạn muốn áp dụng các quy tắc.
- Disallow: cho phép bạn ngăn chặn các trình thu thập dữ liệu truy cập vào các thư mục hoặc trang web cụ thể.
- Allow: cho phép các trình thu thập dữ liệu truy cập vào các thư mục hoặc trang web cụ thể.
- Sitemap: cung cấp thông tin về sitemap website.
Ví dụ robots.txt chuẩn SEO cho Blogspot
Chú ý là thay https://www.anhhiblog.net thành địa chỉ trang blog của bạn.
Việc sử dụng robots.txt không đúng cách có thể ảnh hưởng đến việc thu thập dữ liệu và lập chỉ mục website của bạn.
Nên sử dụng công cụ kiểm tra robots.txt của Google Search Console để đảm bảo robots.txt hoạt động chính xác.
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
Sitemap: https://www.anhhiblog.net/sitemap.xml
Sitemap: https://www.anhhiblog.net/sitemap-pages.xml
Lời kết
Robots.txt chỉ là gợi ý cho các công cụ tìm kiếm, không phải là quy tắc bắt buộc.Việc sử dụng robots.txt không đúng cách có thể ảnh hưởng đến việc thu thập dữ liệu và lập chỉ mục website của bạn.
Nên sử dụng công cụ kiểm tra robots.txt của Google Search Console để đảm bảo robots.txt hoạt động chính xác.
Đăng nhận xét