File Robots.txt là một trong những tệp đơn giản nhất trên mọi trang web, nhưng nó cũng là một trong những tệp dễ gây nhầm lẫn nhất. Nhưng nó lại rất quan trọng trong kế hoạch SEO và chiến lược SEO của bạn.
Chỉ cần một ký tự không đúng vị trí có thể phá hỏng kế hoạch SEO của bạn, đồng thời ngăn các công cụ tìm kiếm và truy cập nội dung quan trọng trên mọi trang web của bạn.
Đây là lý do tại sao cấu hình sai robots.txt cực kỳ phổ biến — ngay cả trong số các chuyên gia SEO có kinh nghiệm. Vậy làm thế nào để có file robots.txt chuẩn cho wordpress và cách tạo file robots.txt cho wordpress như thế nào. Để hiểu rõ hơn, hãy cùng chúng tôi xem qua bài viết này nhé.
Nội dung bài viết
1.File Robot.txt là gì?
File robot.txt là một tệp văn bản mà quản trị viên web tạo ra để hướng dẫn Bọ Google, Bing có thể hiểu và thu thập dữ liệu trên website của bạn.
Không những thế, ngoài việc thu thập dữ liệu và index nội dung trên website ra, quản trị web có thể thông qua File robot.txt để chặn các thông tin không cần thiết trên website của mình.
2. Tệp robots.txt trông như thế nào?
Đây là 2 dạng File robot cơ bản.
# Group 1
User-agent: Googlebot
Disallow: /nogooglebot/
# Group 2
User-agent: *
Allow: /
3.Giải thích thuật ngữ trong File Robot.txt
User-agent ( tác nhân người dùng ): Phần này là tên của trình thu thập dữ liệu, cho phép vào website để thu thập dữ liệu
3.1 Disallow:
Lệnh được sử dụng để yêu cầu User-agent ( tác nhân người dùng) không thu thập thông tin URL cụ thể. Chỉ cho phép một dòng “Disalow” là mỗi URL.
Ví dụ: nếu bạn muốn chặn tất cả các công cụ tìm kiếm truy cập vào blog của bạn và tất cả các bài đăng trên blog của mình, tệp robots.txt của bạn có thể trông giống như sau:
User-agent: *
Disallow: /blog
3.2 Allow (Only applicable for Googlebot):
Lệnh cho Googlebot biết nó có thể truy cập một trang hoặc thư mục con trên website. Mặc dù trang mẹ hoặc thư mục con của nó có thể không được phép.
Ví dụ: nếu bạn muốn ngăn các công cụ tìm kiếm truy cập vào mọi bài đăng trên blog của mình ngoại trừ một bài đăng, thì tệp robots.txt của bạn có thể trông giống như sau:
User-agent: *
Disallow: /blog
Allow: /blog/allowed-post
Trong ví dụ này, các công cụ tìm kiếm có thể truy cập /blog/allowed-post. Nhưng họ không thể truy cập:
/blog/another-post
/blog/yet-another-post
/blog/download-me.pdf
3.3 Sitemap:
Sử dụng chỉ thị này để chỉ định vị trí của (các) sitemap cho các công cụ tìm kiếm. Nếu bạn không quen với sitemap, chúng thường bao gồm các trang mà bạn muốn công cụ tìm kiếm thu thập thông tin và lập chỉ mục.
Đây là ví dụ về tệp robots.txt sử dụng lệnh sơ đồ trang web:
Sitemap: https://www.domain.com/sitemap.xml
User-agent: *
Disallow: /blog/
Allow: /blog/post-title/
Việc bao gồm (các) sitemap trong tệp robots.txt của bạn quan trọng như thế nào? Nếu bạn đã gửi thông qua Search Console, thì nó hơi thừa đối với Google.
Tuy nhiên, nó cho các công cụ tìm kiếm khác như Bing biết nơi tìm sitemap website của bạn, vì vậy nó vẫn là một phương pháp hay.
Lưu ý rằng bạn không cần lặp lại chỉ thị sitemap webite nhiều lần cho mỗi tác nhân người dùng (User-agent ).
Ví dụ:
Sitemap: https://www.domain.com/sitemap.xml
User-agent: Googlebot
Disallow: /blog/
Allow: /blog/post-title/
User-agent: Bingbot
Disallow: /services/
Google hỗ trợ chỉ thị sơ đồ trang web, cũng như Ask, Bing và Yahoo.
4. Các lệnh không được hỗ trợ trong File Robot.txt
Dưới đây là các lệnh không còn được Google hỗ trợ nữa — một số lệnh như sau:
4.1 Crawl-delay
Trước đây, bạn có thể sử dụng lệnh này để chỉ định độ trễ thu thập thông tin trên website. Ví dụ: nếu bạn muốn Googlebot đợi 5 giây sau mỗi hành động thu thập thông tin, bạn sẽ đặt độ trễ thu thập thông tin thành 5 như sau:
User-agent: Googlebot
Crawl-delay: 5
Google không còn hỗ trợ chỉ thị này, nhưng Bing và Yandex thì có.
Tuy nhiên lời khuyên mà chúng tôi dành cho bạn đó là: nên cẩn thận với lệnh này, đặc biệt bạn có một trang web lớn.
Nếu bạn đặt thời gian trễ thu thập thông tin là 5 giây, thì bạn đang hạn chế các bot thu thập thông tin tối đa 17.280 URL mỗi ngày.
Điều đó không hữu ích lắm nếu bạn có hàng triệu trang, nhưng nó có thể tiết kiệm băng thông nếu bạn có một trang web nhỏ.
4.2 Noindex
Chỉ thị này chưa bao giờ được Google hỗ trợ chính thức. Tuy nhiên, một số ý kiến cho rằng Google đã có một số “mã xử lý các quy tắc không được hỗ trợ và chưa được xuất bản (chẳng hạn như noindex)”. Vì vậy, nếu bạn muốn ngăn Google lập chỉ mục tất cả các bài đăng trên blog của mình, bạn có thể sử dụng lệnh sau:
User-agent: Googlebot
Noindex: /blog/
Tuy nhiên, vào ngày 1 tháng 9 năm 2019, Google đã nói rõ rằng chỉ thị này không được hỗ trợ .
4.3 Nofollow
Đây là một chỉ thị khác mà Google chưa bao giờ chính thức hỗ trợ và được sử dụng để hướng dẫn các công cụ tìm kiếm không theo liên kết trên các trang và tệp
Ví dụ: nếu bạn muốn ngăn Google theo dõi tất cả các liên kết trên blog của mình, bạn có thể sử dụng lệnh sau:
User-agent: Googlebot
Nofollow: / blog /
Google đã thông báo rằng chỉ thị này chính thức không được hỗ trợ vào ngày 1 tháng 9 năm 2019
Nếu bạn muốn yêu cầu Google không theo các liên kết cụ thể trên một trang, hãy sử dụng thuộc tính liên kết rel = “nofollow”.
5. File Robot.txt có tác dụng gì với Website
Có một tệp robots.txt không quan trọng đối với nhiều trang web, đặc biệt là những trang web nhỏ.
Nó cho phép bạn kiểm soát nhiều hơn những nơi mà các công cụ tìm kiếm có thể và không thể truy cập vào trang web của bạn và điều đó có thể trợ giúp những việc như:
Ngăn chặn việc thu thập nội dung trùng lặp ;
Giữ các phần của một trang web ở chế độ riêng tư (ví dụ: trang web dàn dựng của bạn);
Ngăn chặn việc thu thập thông tin các trang kết quả tìm kiếm nội bộ;
Chống quá tải cho máy chủ;
Ngăn Google lãng phí “ ngân sách thu thập thông tin ”.
Ngăn hình ảnh, video và tệp tài nguyên xuất hiện trong kết quả tìm kiếm của Google.
Lưu ý nhỏ: mặc dù Google thường không lập chỉ mục các trang web bị chặn trong robots.txt, nhưng điều đó không đảm bảo nó không xuất hiện trên công cụ tìm kiếm. Trích dẫn từ Google.
6. Cách tìm tệp robots.txt của bạn
Để tìm file robot.txt của bạn, bạn chỉ cần mở trình duyệt web lên. Sau đó gõ domain.com/robots.txt. Nếu bạn thấy thứ gì đó như thế này, thì bạn có tệp robots.txt:
Ví dụ tôi lấy từ site skytour.vn nhé
7. Cách tạo File Robots.txt cho WordPress
Nếu bạn không phải là một coder thực sự, việc tạo file robots.txt rất khó khăn. Phải can thiệp rất nhiều thứ, nhưng bây giờ WordPress rất phổ biến.
Nên Cách tạo File Robots.txt cho WordPress cũng trở nên dễ dàng hơn trước rất nhiều. Các bạn xem hướng dẫn sau đây nhé.
Đầu tiên các bạn truy cập vào Dasboard -> Rant Math Seo -> General Setting -> Edir robots.txt
Tiếp theo
Lưu ý là: Khi các bạn tạo File Robots.txt cho WordPress, nếu như các bạn không biết cách chỉnh sửa trong File function.php. Vậy các bạn hãy cài đặt Plugin Rank Math Seo hoặc Yoast Seo để tạo File Robot.txt này nhé.
8. Các phương pháp hay nhất về File Robots.txt
Có rất nhiều sai lầm khi tạo File Robot.txt, sau đây là một số lời khuyên dành cho những ai chưa có kinh nghiệm.
8.1 Sử dụng một dòng mới cho mỗi chỉ thị
Mỗi chỉ thị nên nằm trên một dòng mới. Nếu không, nó sẽ gây nhầm lẫn cho các công cụ tìm kiếm.
Robot.txt xấu:
User-agent: * Disallow: /directory/ Disallow: /another-directory/
Robot.txt Good:
User-agent: *
Disallow: /directory/
Disallow: /another-directory/
8.2 Sử dụng ký tự đại diện để đơn giản hóa hướng dẫn
Bạn không chỉ có thể sử dụng các ký tự đại diện (*) để áp dụng các lệnh cho tất cả các tác nhân người dùng (User-agent) mà còn để khớp các mẫu URL khi khai báo các lệnh.
Ví dụ: nếu bạn muốn ngăn các công cụ tìm kiếm truy cập vào các URL danh mục sản phẩm được tham số hóa trên trang web của mình, bạn có thể liệt kê chúng như sau:
User-agent: *
Disallow: /products/t-shirts?
Disallow: /products/hoodies?
Disallow: /products/jackets?
Nhưng điều đó không hiệu quả lắm. Sẽ tốt hơn nếu đơn giản hóa mọi thứ bằng một ký tự đại diện như sau:
User-agent: *
Disallow: /products/*?
Ví dụ này chặn các công cụ tìm kiếm thu thập thông tin tất cả các URL trong thư mục con / product / có chứa dấu chấm hỏi. Nói cách khác, mọi URL danh mục sản phẩm được tham số hóa.
8.3 Sử dụng “$” để chỉ định phần cuối của URL
Nếu bạn muốn ngăn các công cụ tìm kiếm truy cập vào tất cả các tệp.pdf trên trang web của mình, File robots.txt của bạn có thể trông giống như sau:
User-agent: *
Disallow: /*.pdf$
Trong ví dụ này, công cụ tìm kiếm không thể truy cập bất kỳ URL nào kết thúc bằng .pdf. Điều đó có nghĩa là họ không thể truy cập /file.pdf, nhưng họ có thể truy cập /file.pdf?id=68937586 vì điều đó không kết thúc bằng “.pdf”.
8.4 Sử dụng tính cụ thể để tránh các lỗi không cố ý
Việc không cung cấp các hướng dẫn cụ thể khi thiết lập có thể có tác động nghiêm trọng đến SEO của bạn. Ví dụ: giả sử rằng bạn có một trang web đa ngôn ngữ và bạn đang làm việc trên một phiên bản tiếng Đức sẽ có sẵn trong thư mục con / de /.
Bạn chưa cấu hình để nó hoạt động, vậy bạn không muốn Google index nó phải không nào.
Tệp robots.txt bên dưới sẽ ngăn các công cụ tìm kiếm truy cập vào thư mục con đó và mọi thứ trong đó:
User-agent: *
Disallow: /de
Nhưng nó cũng sẽ ngăn các công cụ tìm kiếm thu thập thông tin của bất kỳ trang hoặc tệp nào bắt đầu bằng /de.
Ví dụ:
/designer-dresses/
/delivery-information.html
/depeche-mode/t-shirts/
/definitely-not-for-public-viewing.pdf
Trong trường hợp này, giải pháp rất đơn giản: thêm một dấu gạch chéo.
User-agent: *
Disallow: / de /
9. Một số File Robot.txt mẫu các bạn tham khảo
9.1 Không giới hạn cho các Bot
User-agent: *
Disallow:
9.2 Chặn tất cả các bot
User-agent: *
Disallow: /
9.3 Chặn bot index thư mục con
User-agent: *
Disallow: /folder/
9.4 Chặn một thư mục con cho tất cả các bot (với một tệp được cho phép)
User-agent: *
Disallow: / folder /
Allow: /folder/page.html
9.5 Chặn một tệp cho tất cả các bot
User-agent: *
Disallow: /this-is-a-file.pdf
9.6 Chặn một loại tệp ( PDF ) cho tất cả các bot
User-agent: *
Disallow: /*.pdf$
9.7 Chặn tất cả các URL bị Google index ký tự lạ
User-agent: Googlebot
Disallow: /*?
10. Cách kiểm tra tệp robots.txt của bạn để tìm lỗi
Để thực hiện việc này, hãy thường xuyên kiểm tra các vấn đề liên quan đến robots.txt trong báo cáo “Mức độ phù hợp” trong Search Console. Dưới đây là một số lỗi bạn có thể thấy, ý nghĩa của chúng và cách bạn có thể sửa chúng.
Lưu ý: Dán URL vào công cụ Kiểm tra URL của Google trong Search Console. Nếu nó bị chặn bởi robots.txt, bạn sẽ thấy một cái gì đó như sau:
10.1 Gửi URL bị chặn bởi Robot.txt
Điều này có nghĩa là ít nhất một trong các URL trong (các) sitemap đã gửi của bạn bị robots.txt chặn. Nếu bạn đã tạo sơ đồ trang web của mình một cách chính xác nhưng vẫn bị Google bot chặn, vậy bạn hãy xem lại trang nào bị ảnh hưởng, sau đó điều chỉnh tệp robots.txt của bạn cho phù hợp để xóa khối cho trang đó.
Bạn có thể sử dụng trình kiểm tra robots.txt của Google để xem chỉ thị nào đang chặn nội dung. Sau đó tìm cách khắc phục
10.2 Đã lập chỉ mục, mặc dù bị chặn bởi robots.txt
Điều này có nghĩa là một số nội dung bị robots.txt chặn vẫn được lập chỉ mục trong Google.
Vậy làm thế nào để khắc phục tình trạng này? Xóa khối thu thập thông tin và thay vào đó sử dụng đoạn code <meta name=”robots” content=”noindex” /> để ngăn chặn Google index.
11. Kết
File Robots.txt là một tệp đơn giản nhưng mạnh mẽ và nó có tác dụng rất lớn đối với SEO. Nếu bạn biết tận dụng và khai thác tốt, chắc chắn thứ hạng từ khóa của bạn sẽ vượt ngoài mong đợi
Chúng tôi biết bài viết này chưa đầy đủ, bởi vì còn một số thiếu sót nhỏ. Nhưng chúng tôi chưa khai thác hết được. Rất mong bạn đọc góp ý thêm thông qua bình luận bên dưới.
Cảm ơn
https://ahrefs.com/blog/robots-txt/
https://moz.com/learn/seo/robotstxt
https://backlinko.com/hub/seo/robots-txt
https://gtvseo.com/robots-txt-la-gi/
đã cho chúng tôi tham khảo bài viết này.