ไฟล์ Robots.txt: เหตุใดจึงสำคัญสำหรับ SEO

เผยแพร่แล้ว: 2022-05-05

ไฟล์ Robots.txt หรือที่เรียกว่าโปรโตคอลการยกเว้นโรบ็อต เป็นเครื่องมือที่จำเป็นสำหรับ SEO ไฟล์ข้อความนี้แจ้งโปรแกรมรวบรวมข้อมูลของเครื่องมือค้นหาว่าหน้าใดบ้างที่สามารถเข้าถึงได้และจัดทำดัชนีในภายหลัง ไฟล์ Robots.txt ยังป้องกันไม่ให้โปรแกรมรวบรวมข้อมูลเข้าถึงบางส่วนของเว็บไซต์ของคุณ สิ่งนี้มีประโยชน์หากคุณต้องการป้องกันไม่ให้เพจที่ไม่ใช่สาธารณะถูกสร้างดัชนี ซึ่งอาจรวมถึงหน้าที่อยู่ระหว่างการพัฒนาหรือหน้าเข้าสู่ระบบออนไลน์ หากเว็บไซต์ของคุณมีเนื้อหากว้างขวางเป็นพิเศษ Robots.txt ก็มีประโยชน์ในการจัดทำดัชนีหน้าเว็บที่เกี่ยวข้องมากที่สุด

ด้วยการสรุปคำขอของคุณในไฟล์ Robots.txt เครื่องมือค้นหาจะสามารถเข้าถึงเฉพาะหน้าที่คุณต้องการให้เข้าถึงเท่านั้น ซึ่งไม่เพียงแต่ให้ความเป็นส่วนตัวในระดับสูงแก่คุณเท่านั้น แต่ยังเพิ่มงบประมาณการรวบรวมข้อมูลของคุณให้สูงสุดอีกด้วย สนใจเรียนรู้เพิ่มเติม? อ่านต่อไปเพื่อดูคำแนะนำในเชิงลึกว่าทำไมไฟล์ Robots.txt จึงมีความจำเป็นสำหรับ SEO

Robots.txt อธิบาย

เครื่องมือค้นหาสำคัญๆ เช่น Google และ Bing ส่งออกสิ่งที่เรียกว่า "โปรแกรมรวบรวมข้อมูล" เพื่อค้นหาผ่านเว็บไซต์ หรือที่เรียกว่า “หุ่นยนต์” หรือ “แมงมุม” โปรแกรมรวบรวมข้อมูลเหล่านี้ให้ข้อมูลที่สำคัญแก่เครื่องมือค้นหาเพื่อให้เว็บไซต์ของคุณได้รับการจัดทำดัชนีอย่างเหมาะสมในหน้าผลลัพธ์ของเครื่องมือค้นหา (SERPs) ซึ่งจะทำให้ผู้ใช้อินเทอร์เน็ตค้นพบไซต์ของคุณได้ง่ายขึ้นโดยการป้อนข้อความค้นหาลงในเครื่องมือค้นหา ไฟล์ Robots.txt ระบุอย่างชัดเจนว่าหน้าใดบ้างที่สามารถค้นหาได้ และหน้าใดที่โรบ็อตควรหลีกเลี่ยง

ต้องการบล็อกโปรแกรมรวบรวมข้อมูลของเครื่องมือค้นหาทั้งหมดไม่ให้เข้าถึงหน้าเข้าสู่ระบบของลูกค้าใช่หรือไม่ คำสั่ง Robots.txt ต่อไปนี้สามารถใช้ได้:

ตัวแทนผู้ใช้: *
ไม่อนุญาต: websitename.com/customer-login

คุณยังสามารถปรับแต่งคำสั่งเพื่อเน้นที่เครื่องมือค้นหาเฉพาะได้ หากคุณต้องการป้องกันไม่ให้โปรแกรมรวบรวมข้อมูลของ Google เข้าถึงหน้าเว็บของคุณเท่านั้น คุณสามารถใช้คำสั่งต่อไปนี้:

User-Agent: Googlebot
ไม่อนุญาต: websitename.com/customer-login

เพื่อให้ชีวิตของคุณง่ายขึ้น คุณสามารถเพิ่มหน้าได้มากเท่าที่คุณต้องการในรายการที่ไม่อนุญาต เมื่อคุณสร้างไฟล์ Robots.txt แล้ว ควรวางไฟล์นั้นไว้ในไดเร็กทอรีหลักของเว็บไซต์ของคุณ จากตัวอย่างข้างต้นเป็นแนวทาง URL ของไฟล์ Robots.txt ควรมีลักษณะดังนี้:

https://www.websitename.com/robots.txt

เหตุใดจึงบล็อกการเข้าถึงหน้าเว็บ

การบล็อกการเข้าถึงหน้าเว็บบางหน้าจะช่วยสนับสนุนความพยายาม SEO ของคุณ ดังนั้น คุณจะต้องเข้าใจว่าเมื่อใดควรนำไฟล์ Robots.txt มาเล่น หากเว็บไซต์ของคุณมีหน้าที่ซ้ำกัน คุณต้องไม่อนุญาตให้โปรแกรมรวบรวมข้อมูลจัดทำดัชนีหน้าดังกล่าว ทำไม การจัดทำดัชนีเนื้อหาที่ซ้ำกันอาจเป็นอันตรายต่อ SEO ของคุณ

แม้ว่า Google และเครื่องมือค้นหาอื่นๆ จะไม่ลงโทษคุณสำหรับเนื้อหาที่ซ้ำกัน แต่การจัดทำดัชนีหน้าที่ซ้ำกันโดยไม่จำเป็นอาจทำให้หน้าที่มีค่าที่สุดของคุณมีอันดับที่ดีได้ยากขึ้น

ไฟล์ Robots.txt ยังช่วยให้ใช้ประโยชน์จากงบประมาณการรวบรวมข้อมูลได้ง่ายขึ้นอีกด้วย การรวบรวมข้อมูลบอทเป็นสินค้าที่มีค่าที่สามารถเพิ่มประสิทธิภาพ SEO ของคุณได้ อย่างไรก็ตาม การรวบรวมข้อมูลพร้อมกันสามารถพิสูจน์ได้ว่ามีมากเกินไปสำหรับไซต์ขนาดเล็ก ไซต์ขนาดใหญ่หรือไซต์ที่มีอำนาจสูง มักจะมีค่าเผื่อการรวบรวมข้อมูลที่มากขึ้น

อย่างไรก็ตาม ไซต์ที่จัดตั้งขึ้นน้อยกว่าต้องทำงานด้วยงบประมาณที่ค่อนข้างเจียมเนื้อเจียมตัว การติดตั้ง Robots.txt หมายความว่าคุณสามารถจัดลำดับความสำคัญของหน้าที่สำคัญที่สุดของเว็บไซต์ของคุณ เพื่อให้แน่ใจว่างบประมาณการรวบรวมข้อมูลของคุณจะไม่สูญเปล่าบนหน้ารองและเนื้อหาที่ไม่จำเป็น

อาจมีหน้าเว็บที่คุณไม่ต้องการให้ผู้ใช้ทุกคนสามารถเข้าถึงได้ หากเว็บไซต์ของคุณนำเสนอบริการหรือมีช่องทางการขาย มีหลายหน้าที่คุณต้องการแสดงต่อลูกค้าหลังจากที่พวกเขาได้ดำเนินการบางอย่างเสร็จสิ้นแล้วเท่านั้น หากคุณสร้างแรงจูงใจให้การกระทำเหล่านี้ด้วยรหัสส่วนลดหรือรางวัลสำหรับสมาชิก คุณจะต้องการให้ผู้ใช้ที่เสร็จสิ้นการเดินทางของลูกค้าเข้าถึงได้เท่านั้น การบล็อกหน้าเหล่านี้จะเป็นการป้องกันผู้ใช้ทั่วไปไม่ให้สะดุดกับข้อมูลนี้ผ่านข้อความค้นหาของเครื่องมือค้นหา

ไฟล์ Robots.txt ยังมีประโยชน์ในการตรวจสอบให้แน่ใจว่าเครื่องมือค้นหาถูกป้องกันไม่ให้สร้างดัชนีเนื้อหาบางอย่าง เช่น ภาพส่วนตัว นอกจากนี้ยังสามารถใช้เพื่อระบุตำแหน่งของแผนผังเว็บไซต์ ตลอดจนป้องกันไม่ให้เซิร์ฟเวอร์ทำงานหนักเกินไปหากบอทพยายามสร้างดัชนีภาพพร้อมกัน

วิธีสร้างไฟล์ Robots.txt

ตอนนี้เราได้สำรวจสาเหตุที่คุณอาจต้องใช้ไฟล์ Robots.txt แล้ว เราสามารถตรวจสอบวิธีสร้างไฟล์ได้ วิธีที่ง่ายที่สุดในการสร้างไฟล์ Robots.txt คือการใช้ Google Webmaster Tools เมื่อคุณสร้างบัญชีแล้ว ให้คลิกที่ 'การเข้าถึงของโปรแกรมรวบรวมข้อมูล' จากนั้นไปที่ 'การกำหนดค่าไซต์' เมื่อคุณเข้าถึงส่วนนี้ของเมนูแล้ว ให้คลิกที่ 'สร้าง robots.txt' เครื่องมือนี้ช่วยให้สร้างไฟล์ Robots.txt ได้อย่างรวดเร็ว

หากต้องการบล็อกหน้าการเข้าถึงของโปรแกรมรวบรวมข้อมูล เพียงเลือกตัวเลือก 'บล็อก' จากนั้นคุณสามารถเลือก 'User-Agent' เพื่อระบุว่าโปรแกรมรวบรวมข้อมูลของเครื่องมือค้นหาใดที่คุณต้องการบล็อก ตอนนี้คุณสามารถพิมพ์ไดเร็กทอรีของไซต์ที่คุณต้องการจำกัดการเข้าถึงได้ แทนที่จะพิมพ์ URL ทั้งหมดของหน้าเป้าหมาย คุณจะต้องเพิ่มส่วนขยายใน 'ไดเรกทอรีและไฟล์' เท่านั้น กล่าวอีกนัยหนึ่ง หากคุณต้องการบล็อกไม่ให้โปรแกรมรวบรวมข้อมูลเข้าถึงหน้าเข้าสู่ระบบของลูกค้า คุณเพียงแค่พิมพ์:

/ลูกค้าเข้าสู่ระบบ

เมื่อคุณได้สรุปว่าหน้าใดที่คุณต้องการบล็อกแล้ว คุณสามารถคลิกที่ 'เพิ่มกฎ' เพื่อสร้าง Robots.txt Robots.txt ที่สร้างขึ้นจะให้ตัวเลือกแก่คุณในการยกเว้น 'อนุญาต' ซึ่งมีประโยชน์หากคุณเพียงต้องการจำกัดไม่ให้เครื่องมือค้นหาบางตัวสร้างดัชนีไซต์ของคุณ

เมื่อทำทุกอย่างเสร็จแล้ว คุณสามารถคลิกไอคอนดาวน์โหลดเพื่อสร้างไฟล์ Robots.txt สุดท้ายได้

ฉันจะติดตั้งไฟล์ Robots.txt ได้อย่างไร

ตอนนี้งานหนักทั้งหมดได้รับการดูแลแล้ว ถึงเวลาติดตั้งไฟล์ Robots.txt ของคุณ คุณสามารถทำได้ด้วยตัวเองโดยการอัปโหลดไฟล์ด้วยโซลูชัน FTP อย่างไรก็ตาม หากความรู้ด้านการเขียนโปรแกรมของคุณมีช่องว่างอยู่บ้าง อาจเป็นการดีที่สุดที่จะให้บริการจากผู้เชี่ยวชาญ หากคุณกำลังมอบหมายงานให้กับโปรแกรมเมอร์ ตรวจสอบให้แน่ใจว่าคุณได้สรุปว่าหน้าใดที่คุณต้องการบล็อกและระบุข้อยกเว้น

ไฟล์ Robots.txt: สิ่งสำคัญที่ต้องจำ

เพื่อให้แน่ใจว่าคุณกำลังใช้ไฟล์ Robots.txt ให้เกิดประโยชน์สูงสุด มีแนวทางปฏิบัติที่ดีที่สุดบางประการที่ควรคำนึงถึง อาจดูเหมือนชัดเจน แต่ตรวจสอบให้แน่ใจว่าคุณกำลังตรวจสอบสต็อกของหน้าเว็บของคุณ และไม่ได้ปิดกั้นการเข้าถึงหน้าที่มีมูลค่าสูงที่คุณต้องการให้รวบรวมข้อมูลและจัดทำดัชนี

แม้ว่าผู้ใช้จำนวนมากจะหันไปใช้ Robots.txt เพื่อบล็อกไม่ให้แสดงข้อมูลที่ละเอียดอ่อนในหน้าผลลัพธ์ของเครื่องมือค้นหา แต่ก็ไม่ใช่วิธีที่ดีที่สุดในการเก็บเนื้อหาดังกล่าวให้พ้นสายตาของสาธารณชน หากหน้าอื่นๆ เชื่อมโยงไปยังหน้าที่คุณบล็อก มีโอกาสเสมอที่พวกเขาจะถูกจัดทำดัชนี ใช้วิธีการอื่นเพื่อซ่อนข้อมูลที่ละเอียดอ่อนไม่ให้มองเห็น

ความคิดสุดท้าย

เพื่อให้แน่ใจว่าไฟล์ Robots.txt ของคุณไม่ส่งผลเสียต่อ SEO คุณต้องอัปเดตไฟล์อยู่เสมอ ทุกครั้งที่คุณเพิ่มหน้า ไดเร็กทอรี หรือไฟล์ใหม่ลงในเว็บไซต์ของคุณ คุณจะต้องอัปเดตไฟล์ Robots.txt ตามลำดับ แม้ว่าจะจำเป็นเฉพาะเมื่อคุณเพิ่มเนื้อหาที่ต้องจำกัด การแก้ไขไฟล์ Robots.txt ถือเป็นแนวทางที่ดี ไม่เพียงแต่รับประกันว่าเนื้อหาเว็บไซต์ของคุณมีความปลอดภัยมากที่สุด แต่ยังเป็นประโยชน์ต่อกลยุทธ์ SEO ของคุณอีกด้วย

การใช้ Robots.txt อย่างมีประสิทธิภาพ คุณสามารถเพิ่มงบประมาณการรวบรวมข้อมูลได้สูงสุด และจัดลำดับความสำคัญของหน้าที่สำคัญที่สุด ป้องกันการจัดทำดัชนีของเนื้อหาที่ซ้ำกัน และลดโอกาสที่การรวบรวมข้อมูลพร้อมกันจะบังคับให้เซิร์ฟเวอร์ของคุณหยุดนิ่ง

ผู้เขียนชีวประวัติ:

Greg Tuohy เป็นกรรมการผู้จัดการของ Docutec ผู้ให้บริการซอฟต์แวร์เครื่องพิมพ์และสำนักงานอัตโนมัติสำหรับธุรกิจ Greg ได้รับการแต่งตั้งเป็นกรรมการผู้จัดการในเดือนมิถุนายน 2011 และเป็นแรงผลักดันที่อยู่เบื้องหลังทีมที่ Cantec Group ทันทีหลังจากสำเร็จการศึกษาระดับปริญญาวิทยาศาสตร์ที่ UCC ในปี 1995 Greg เข้าร่วมธุรกิจเครื่องถ่ายเอกสาร/เครื่องพิมพ์ของครอบครัว Docutec ยังผลิตเครื่องพิมพ์สำหรับบ้านของครอบครัวด้วย เช่น เครื่องพิมพ์มัลติฟังก์ชั่น