เลือกหัวข้อที่ต้องการอ่าน

Blocked by robots.txt คืออะไร ?

ข้อความแสดงข้อผิดพลาด “Block by robots.txt” ใน Google Search Console หมายความว่า Googlebot ไม่สามารถสร้างดัชนีหน้าเว็บของคุณได้เนื่องจากถูกบล็อกโดยไฟล์ robots.txt ไฟล์ robots.txt เป็นไฟล์ข้อความธรรมดาที่โฮสต์อยู่ใน Root ของเว็บไซต์ของคุณและสามารถใช้เพื่อแจ้งให้ Googlebot ทราบว่าหน้าเว็บใดควรรวบรวมข้อมูลและจัดดัชนีและหน้าเว็บใดควรบล็อก

หากคุณต้องการทราบว่าหน้าเว็บใดถูกบล็อกโดยไฟล์ robots.txt คุณสามารถตรวจสอบใน Google Search Console โดยไปที่ส่วน “Coverage” จากนั้นคลิกที่ “Block by robots.txt” ในบานหน้าต่างด้านซ้ายมือ รายการหน้าเว็บที่บล็อกจะแสดงอยู่ในบานหน้าต่างด้านขวามือ

หากคุณต้องการอนุญาตให้ Googlebot รวบรวมข้อมูลและจัดทำดัชนีหน้าเว็บที่ถูกบล็อกโดยไฟล์ robots.txt คุณสามารถแก้ไขไฟล์ robots.txt และลบบรรทัดที่มีคำสั่ง “Disallow” หน้าเว็บจะถูกสร้างขึ้นใน Google Search Console ภายใน 24 ชั่วโมง

Blocked by robots.txt

เคล็ดลับการเขียนไฟล์ robots.txt

เทคนิคการทำ Sitemap ให้ Googlebot จัดทำดัชนีได้เร็วขึ้น

  • ใช้คำสั่ง “Disallow” เพื่อบล็อกหน้าเว็บเฉพาะ
  • ใช้คำสั่ง “Allow” เพื่ออนุญาตให้ Googlebot รวบรวมข้อมูลและจัดทำดัชนีหน้าเว็บเฉพาะ
  • ใช้คำสั่ง “User-agent” เพื่อบล็อกหรืออนุญาตให้ Googlebot รวบรวมข้อมูลและจัดทำดัชนีโดยขึ้นอยู่กับผู้ใช้
  • อัปเดตไฟล์ robots.txt เป็นระยะ

หากคุณไม่แน่ใจว่าควรใช้คำสั่ง robots.txt ใด คุณควรปรึกษากับผู้เชี่ยวชาญด้าน SEO

หากคุณรู้สึกว่าขั้นตอนเหล่านี้นั้นยากเกินไป Soar Fast เรามีบริการ รับทำ SEO พร้อมทีมงานผู้เชี่ยวชาญด้าน On-Page, Off-Page, Technical, Digital Marketing ซึ่งทางเราได้เตรียมพร้อมทุกกลยุทธ์เพื่อให้เว็บไซต์ของคุณเติบโตอย่างก้าวกระโดด

ติดต่อเราผ่านช่องทาง Line: https://lin.ee/If9vGQQ

Posted in
#Technical SEO

Leave a Comment