เทคนิคการปิดบัง SEO ที่ควรหลีกเลี่ยงในปี 2011

เผยแพร่แล้ว: 2011-01-27

Matt Cutts หัวหน้า Google Web Spam สละเวลาจาก Ozzie และ Emmy (The Matt Cutts “Catts”) เมื่อสิ้นปี 2010 เพื่อโพสต์เรื่องเล็กน้อยสำหรับผู้ดูแลเว็บและ SEO ผ่านทาง Twitter ซึ่งฉันแน่ใจว่าจะมีอาการเมาค้าง สำหรับหมวกดำสองสามตัวในช่วงเทศกาลวันหยุด

Google จะ [ดู] การปิดบังมากขึ้นในไตรมาสที่ 1 ปี 2011 ไม่ใช่แค่เนื้อหาของหน้าเท่านั้น หลีกเลี่ยงส่วนหัว/การเปลี่ยนเส้นทางไปยัง Googlebot ที่แตกต่างกันแทนผู้ใช้

การปิดบังหน้าเว็บจริงเป็นเทคนิคที่ใช้เพื่อแสดงเนื้อหา เลย์เอาต์ ฟังก์ชัน หรือส่วนหัว (หน้าหรือส่วนประกอบบางส่วนของหน้าที่แตกต่างไปจากเดิมอย่างสิ้นเชิง หรือที่เรียกว่า Mosaic cloaking) ต่อสไปเดอร์ของเครื่องมือค้นหามากกว่าเว็บเบราว์เซอร์ของผู้ใช้

การปิดบังอย่างมีจริยธรรมไม่ใช่ “หมวกดำ” อย่างไรก็ตาม ในอดีตนักส่งสแปมได้ใช้วิธีในการจัดการเทคนิคการปิดบัง เพื่อความชัดเจน ให้เรียกมันว่าการปิดบังสแปมเพื่อล้อเลียนอัลกอริทึม (Google) นี่ไม่ใช่ปรากฏการณ์ใหม่ ในช่วงเริ่มต้น แท็ก meta keyword ถูกใช้ในทางที่ผิดโดยผู้ส่งอีเมลขยะ และด้วยเหตุนี้จึงไม่ใช่ปัจจัยในการจัดอันดับอีกต่อไป และแท็ก <noscript> อาจได้รับการปฏิบัติด้วยความสงสัยเนื่องจากเคยถูกใช้ในทางที่ผิด (บางทีเราควรเปิด ที่หลบภัยสำหรับองค์ประกอบ HTML ที่ถูกละเมิด….)

ก่อนอื่น ให้ฉันบอกว่า ถ้าเป็นไปได้ หลีกเลี่ยงการปิดบัง การปิดบังหน้าเว็บจริงเป็นการฝึกที่มีความเสี่ยงสูง หากจำเป็นต้องดำเนินการ ควรทำในลักษณะที่มีจริยธรรมที่เหมาะสม โดยปฏิบัติตามหลักเกณฑ์สำหรับผู้ดูแลเว็บของ Google เพื่อให้แน่ใจว่าเว็บไซต์ของคุณจะไม่ถูกลงโทษหรือหลุดออกจากดัชนี

ขออภัย เว็บมาสเตอร์บางคนอาจไม่เข้าใจผลที่ตามมา และปิดบังเนื้อหา ลิงก์ หรือเว็บไซต์ทั้งหมดโดยไม่ได้ตั้งใจ บทความนี้จะสรุปการทำงานทั่วไปในไซต์บางส่วนที่อาจ (ผิดพลาด) ตีความว่าเป็นการปิดบังสแปม

โปรดทราบว่า Google กำลังตรวจสอบอินสแตนซ์ของการปิดบังสแปมและการแบนเว็บไซต์จากดัชนีอย่างแข็งขัน พวกเขายังติดตามการตรวจจับการปิดบังและลิงก์ที่ผิดปกติด้วยการแจ้งเตือนไปยังผู้ดูแลเว็บผ่านเครื่องมือของผู้ดูแลเว็บ ขณะนี้ Google ตรวจพบการ ปิดบังสแปม อัลกอริธึมได้ดีขึ้นและดีขึ้นเรื่อยๆ แม้ว่าการส่ง IP จะไม่ผิดพลาด และแน่นอนว่า Google สนับสนุนให้คู่แข่งของคุณใช้รายงานสแปมเสมอ หากตรวจพบบางสิ่งที่เกี่ยวกับหน้าเว็บของคุณ

การระบุการปิดบังสแปมโดยใช้อัลกอริทึมต้องใช้เครื่องมือค้นหาเพื่อเปรียบเทียบหน้าเว็บเดียวที่ได้รับผ่านกลไกตั้งแต่สองกลไกขึ้นไป (เช่น ช่วง IP สองช่วงขึ้นไป ตัวระบุ User-agent หรือฟังก์ชัน HTML/ JavaScript ในระดับต่างๆ กัน) Microsoft ได้ยื่นจดสิทธิบัตรเมื่อปลายปี 2549 โดยอ้างว่าระบบที่อำนวยความสะดวกในการตรวจจับหน้าเว็บที่ปิดบัง

โดยธรรมชาติแล้ว สิ่งนี้นำไปสู่คำถามว่าเครื่องมือค้นหาจะรวบรวมและวิเคราะห์ตัวอย่างสองตัวอย่างของหน้าเว็บเพื่อเปรียบเทียบได้อย่างไร วิธีการบางอย่างอาจรวมถึง:

  • การแยกความแตกต่างของเนื้อหาบางส่วน โดยใช้การวิเคราะห์หัวข้อเนื้อหา การแบ่งส่วนหน้า การวิเคราะห์ความหมายแฝง (LSA) การใช้คำหลัก ลิงก์ในหน้า และปัจจัยอื่นๆ ในหน้า
  • ที่อยู่ IP ที่ต่างกัน/ ช่วง IP หรือพร็อกซีที่แยกจากกันเพื่อวิเคราะห์เว็บสแปม
  • user-agent ต่างๆ (เช่น ใช้เบราว์เซอร์ user agent เพื่อตรวจสอบเนื้อหาที่ปิดบัง)
  • รายงานสแปมจากชุมชนผู้ดูแลเว็บ
  • การทดสอบผู้ใช้
  • การวิเคราะห์การเปลี่ยนเส้นทางแบบลูกโซ่มากกว่า 5 รายการเพื่อตรวจสอบการปิดบัง (อาจจำกัดการจัดทำดัชนีและการไหลของเพจแรงก์ อำนาจ ความไว้วางใจ ฯลฯ ผ่านการเปลี่ยนเส้นทางแบบลูกโซ่ 5 ครั้ง)
  • ปรับปรุงการตีความโค้ด JavaScript (เฉพาะการประเมินฟังก์ชัน JavaScript ที่ซับซ้อนและ/หรือเข้ารหัสซึ่งมีลิงก์หรือการเปลี่ยนเส้นทาง)
  • กลไกในการยอมรับคุกกี้ (อาจร่วมกับ JavaScript และการวิเคราะห์การเปลี่ยนเส้นทางด้านบน)

แน่นอนว่าการรวบรวมข้อมูลสามารถเอาต์ซอร์ซไปยังบริษัทอื่นเพื่อหลีกเลี่ยงปัญหาเรื่องการจัดส่ง IP ได้

มีหลายกรณีที่บริษัทอาจต้องการให้ข้อมูลที่แตกต่างหรือเพิ่มเติมแก่ผู้ใช้ ตัวอย่างเช่น:

  • การกำหนดเป้าหมายตามภูมิศาสตร์
  • ผู้ใช้ที่เข้าสู่ระบบ (ประสบการณ์โฮมเพจที่กำหนดเอง ฯลฯ)
  • การติดตามการอ้างอิง – ตัวอย่างเช่น ให้คำติชมกับผู้ใช้ตามคำค้นหาของเครื่องมือค้นหา เช่น การเน้นคำบนหน้าที่ตรงกับคำค้นหา
  • การปิดบังอุปกรณ์สำหรับโทรศัพท์มือถือและอุปกรณ์สัมผัส
  • การเพิ่มประสิทธิภาพสำหรับเบราว์เซอร์เฉพาะหรือเพื่อความเข้ากันได้แบบย้อนหลัง
  • การเพิ่มประสิทธิภาพการแสดงผล (แม้ว่าโดยปกติจะถูกควบคุมผ่าน CSS)
  • คลิกแรกฟรี – หรือห้าคลิกแรกฟรี
  • A/B หรือการทดสอบหลายตัวแปร
  • Vanity URL (การปิดบังลิงก์)
  • แสดงการตรวจสอบอายุ (www.bacardi.com ใช้การตรวจหา user-agent และคุกกี้ร่วมกันเพื่อแสดงหน้าต้อนรับการตรวจสอบอายุแก่ผู้ใช้ แต่อนุญาตให้เครื่องมือค้นหาเข้าถึงเว็บไซต์ได้ แม้ว่า Google จะอายุเพียง 14 ปี)
  • โหลดบาลานซ์
  • การเปลี่ยนแบบอักษร (ผ่านเทคโนโลยีเช่น sIFR หรือ Cufon) – หมายเหตุ: อาจแต่ไม่เหมาะสมสำหรับ Google Preview (ณ เดือนธันวาคม 2010)
  • SWFObject

ตรวจสอบให้แน่ใจว่าคุณได้พิจารณาถึงผลกระทบ SEO เมื่อใช้วิธีหรือการทำงานใดๆ ที่กล่าวถึงข้างต้น เนื่องจากการกำหนดค่าผิดพลาดอาจส่งผลให้เกิดการปิดบังสแปมหรืออาจไม่เหมาะสมสำหรับ SEO

โอเค นี่ไม่ใช่บทช่วยสอนเกี่ยวกับวิธีการปิดบัง มันคือ "รายการที่ไม่มีการปิดบังสแปมปี 2011" หรืออย่างน้อยที่สุด เทคนิคที่ควรหลีกเลี่ยงหรือปัญหาที่ต้องแก้ไขในช่วงต้นปี 2011

การปิดบังบางรูปแบบเป็นการจงใจ (เช่น การส่ง IP หรือการปิดบังตัวแทนผู้ใช้) อย่างไรก็ตาม การปิดบังหน้าเว็บจริง-สแปมในรูปแบบต่างๆ อาจเกิดขึ้นโดยไม่ได้ตั้งใจ ประเภทของการปิดบังสแปมโดยไม่ได้ตั้งใจซึ่งทำให้คุณถูกแบนจาก Google โดยไม่ได้ตั้งใจนั้นเป็นเรื่องที่น่ากังวลมากที่สุด เนื่องจากผู้ดูแลเว็บอาจไม่ทราบถึงปัญหาดังกล่าว แม้แต่บริษัทขนาดใหญ่ก็ยังเข้าใจผิดในบางครั้ง

เราจะตรวจสอบ เทคนิคการปิดบังสแปมที่พบบ่อย ที่สุดด้านล่าง เพื่อให้ความรู้และให้แน่ใจว่าผู้ดูแลเว็บและ SEO สามารถตรวจสอบได้ว่าพวกเขาไม่มีพวกเขาอยู่ในเว็บไซต์ของตน

โดยทั่วไปมีสามวิธีที่ผู้ดูแลเว็บปิดบังเนื้อหาจากผู้ใช้หรือเครื่องมือค้นหา:

  1. IP-การจัดส่ง
  2. การวิเคราะห์ User-agent (คุณสามารถตรวจสอบการปิดบัง User-agent โดยใช้ตัวตรวจสอบ SEO Cloaking ฟรีของ Bruce Clay
  3. การใช้ประโยชน์จากพฤติกรรมของเครื่องมือค้นหาที่รู้จัก เช่น การทำงานของ JavaScript หรือการเปลี่ยนเส้นทาง และการสร้างดัชนีหรือความสามารถของสไปเดอร์ขององค์ประกอบ HTML ต่างๆ

การส่งเนื้อหาที่แตกต่างกันตามที่อยู่ IP ของเว็บเบราว์เซอร์ที่ร้องขอหรือสไปเดอร์ของเครื่องมือค้นหา [การจัดส่ง IP มีรายละเอียดเพิ่มเติมที่นี่]

ย้อนกลับ DNS & ส่งต่อ DNS

การค้นหา DNS ย้อนกลับและส่งต่อ DNS ไม่ใช่รูปแบบของการปิดบัง แต่อาจใช้เพื่อสืบค้นบันทึก DNS ของที่อยู่ IP ที่ร้องขอ Google ให้รายละเอียดเกี่ยวกับวิธีการยืนยัน Googlebot ว่าเป็นใคร

การแสดงเนื้อหาที่แตกต่างกันตาม User-agent ของเว็บเบราว์เซอร์ที่ร้องขอหรือสไปเดอร์ของเครื่องมือค้นหา ตัวอย่างเช่น Googlebot/2.1 (+http://www.google.com/bot.html) หรือ Mozilla/5.0 (Windows; U; MSIE 7.0; Windows NT 6.0; en-US)

Google อาจจัดทำดัชนีหน้าที่มี JavaScript แต่อาจไม่ติดตามการเปลี่ยนเส้นทาง JavaScript อย่างไรก็ตาม เราเห็นการปรับปรุงที่สำคัญในการตีความโค้ด JavaScript ของ Google (ตัวอย่างเช่น >ตัวสร้างการแสดงตัวอย่างของ Google แสดง JavaScript, AJAX, CSS3, เฟรม และ iframes)

บางครั้ง ผู้ดูแลเว็บใช้การเปลี่ยนเส้นทาง JavaScript เมื่อไม่สามารถใช้การเปลี่ยนเส้นทางฝั่งเซิร์ฟเวอร์ ออกจาก Googlebot ในหน้าแรกโดยไม่ได้ตั้งใจ และส่งเว็บเบราว์เซอร์ (ซึ่งตามหลังการเปลี่ยนเส้นทาง JavaScript) ไปยังหน้าที่ 2 ที่มีเนื้อหาต่างกัน และถูกตั้งค่าสถานะว่าเป็นการปิดบัง-สแปม

ระวังรหัสต่อไปนี้:

<script type="text/javascript"> window.location="http://www.yoursite.com/second-page.html" </script>

แท็กที่เพิ่มในส่วนหัวในหน้า HTML เพื่อเปลี่ยนเส้นทางผู้ใช้ไปยังหน้าอื่นหลังจากช่วงเวลาที่กำหนด เมตาแท็กรีเฟรชไม่ถือเป็นการปิดบังเมื่อใช้โดยลำพัง แต่อาจใช้ร่วมกับ JavaScript เฟรมหรือเทคนิคอื่นๆ เพื่อส่งผู้ใช้ไปยังหน้าอื่นไปยังสไปเดอร์ของเครื่องมือค้นหา

ระวังรหัสต่อไปนี้:

<meta http-equiv="refresh" content="0;url=http://www.yoursite.com/second-page.html">

การรีเฟรชเมตาสองครั้ง/ หลายรายการหรือการปิดบังผู้อ้างอิง

อาจใช้เมตารีเฟรชหลายรายการเพื่อซ่อนผู้อ้างอิงจากเว็บไซต์ในเครือ หลีกเลี่ยงการผูกมัดการเปลี่ยนเส้นทางหลายครั้งเนื่องจากอาจส่งผลเสียต่อ SEO และอาจขัดต่อข้อกำหนดในการให้บริการ (TOS) ของพันธมิตรในเครือของคุณ

การรีเฟรชเมตาใน JavaScript หรือแท็ก <noscript>

ตกลง ตอนนี้เรากำลังเข้าสู่อาณาจักรของ "หมวกดำ" ไม่น่าเป็นไปได้ที่เว็บมาสเตอร์จะรวมการรีเฟรชเมตากับ JavaScript เว้นแต่จะไม่ได้ผล

ซึ่งเป็นเรื่องง่ายสำหรับเครื่องมือค้นหาที่จะตรวจพบ อย่าทำมัน

เสิร์ชเอ็นจิ้นอาจไม่ติดตามการเปลี่ยนเส้นทางแบบลูกโซ่หลายครั้ง (ตามหลักเกณฑ์ในข้อมูลจำเพาะ HTML หมายเลขที่แนะนำตั้งไว้ที่ 5 การเปลี่ยนเส้นทาง) Google อาจติดตามการเปลี่ยนเส้นทางแบบลูกโซ่ประมาณ 5 ครั้ง เว็บเบราว์เซอร์อาจติดตามมากขึ้น

การเปลี่ยนเส้นทางแบบ back-to-back หลายครั้ง (โดยเฉพาะอย่างยิ่งการรวมประเภทการเปลี่ยนเส้นทาง 301, 302, meta refresh, JavaScript เป็นต้น) เข้าด้วยกัน ส่งผลกระทบต่อเวลาในการโหลดหน้าเว็บ อาจส่งผลต่อการไหลของ PageRank (แม้กระทั่งการเปลี่ยนเส้นทาง 301 ก็อาจเห็น PageRank ลดลงบางส่วน) และอาจถือเป็นการปิดบังหน้าเว็บจริง สแปม

ฉันไม่พบข้อมูลใดๆ เกี่ยวกับจำนวนการเปลี่ยนเส้นทางที่เว็บเบราว์เซอร์จะติดตาม ดังนั้นฉันจึงสร้างสคริปต์เปลี่ยนเส้นทางแบบรวดเร็วเพื่อทดสอบเบราว์เซอร์บางตัวที่ติดตั้งในเครื่องของฉัน และให้สถิติบางอย่างเกี่ยวกับจำนวนการเปลี่ยนเส้นทางโดยประมาณที่ตามด้วย (ตามประเภทการเปลี่ยนเส้นทาง) . ฉันจำกัดสคริปต์ไว้ที่การเปลี่ยนเส้นทางแบบลูกโซ่สูงสุด 5,000 ครั้ง

เว็บเบราว์เซอร์ เวอร์ชั่น ประมาณ # จาก 301 เปลี่ยนเส้นทาง ประมาณ # จาก 302 เปลี่ยนเส้นทาง ประมาณ # ของการเปลี่ยนเส้นทาง Meta Refresh Redirects ประมาณ # ของการเปลี่ยนเส้นทาง JavaScript
Google Chrome 8.0.552.224 21 21 21 มากกว่า 5000
(ไม่ทราบขีดจำกัด)
Internet Explorer 8.0.6001.18702IC 11 11 มากกว่า 5000
(ไม่ทราบขีดจำกัด)
มากกว่า 5000
(ไม่ทราบขีดจำกัด)
Mozilla Firefox 3.5.16 20 20 20 มากกว่า 3000
(ไม่ทราบขีดจำกัด เนื่องจากเบราว์เซอร์หยุดทำงานหลังจากเปลี่ยนเส้นทาง 3,000 JS)
ซาฟารี 3.1.2 (525.21) 16 16 มากกว่า 5000
(ไม่ทราบขีดจำกัด)
มากกว่า 5000
(ไม่ทราบขีดจำกัด)

ขณะที่เขียนสคริปต์ เราคิดว่าเราจะทำการทดสอบเพิ่มเติมและส่ง URL การเปลี่ยนเส้นทางไปยัง Google นอกจากนี้เรายังเชื่อมโยงกับสคริปต์จาก Twitter ผลลัพธ์อยู่ในตารางด้านล่าง

เครื่องมือค้นหา IP โฮสต์ตัวแทนผู้ใช้ ประมาณ # จาก 301 เปลี่ยนเส้นทางตาม
Microsoft *สันนิษฐานตามช่วง IP
Mozilla/4.0 (เข้ากันได้; MSIE 7.0; Windows NT 6.0)
65.52.17.79 25
Google
Mozilla/5.0 (เข้ากันได้ Googlebot/2.1; +http://www.google.com/bot.html)
66.249.68.249 5
Yahoo
Mozilla/5.0 (เข้ากันได้ Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp)
67.195.111.225 4
ทวิตเตอร์
Twitterbot/0.1
128.242.241.94 3
LinkedIn
LinkedInBot/1.0 (เข้ากันได้ Mozilla/5.0; Jakarta Commons-HttpClient/3.1 +http://www.linkedin.com)
216.52.242.14 1
โพสต์แรงค์
โพสต์แรงก์/2.0 (postrank.com)
204.236.206.79 0

แม้ว่า Googlebot จะรวบรวมข้อมูลการเปลี่ยนเส้นทางถาวรเพียง 5 รายการในกรณีนี้ แต่อาจถือว่ายุติธรรมที่จะสันนิษฐานว่า Google อาจใช้การตรวจสอบตามการรวบรวมข้อมูลเพื่อทดสอบการเปลี่ยนเส้นทางที่เกินขีดจำกัดของบอทการเปลี่ยนเส้นทาง 5 รายการในลักษณะเดียวกันกับ Microsoft ข้างต้น ซึ่งติดตามการเปลี่ยนเส้นทางแบบลูกโซ่ประมาณ 25 รายการ หมายเหตุ: เราคิดว่านี่คือ IP ที่ Microsoft เป็นเจ้าของโดยอิงตามข้อมูล IP Whois จากเครื่องมือโดเมน

เฟรมช่วยให้เว็บมาสเตอร์ฝังเอกสารอื่นภายในหน้า HTML ตามปกติแล้ว เสิร์ชเอ็นจิ้นไม่ได้ระบุแหล่งที่มาของเนื้อหาที่อยู่ในเฟรมของเพจหลักได้ดี ทำให้เว็บมาสเตอร์สามารถป้องกันไม่ให้เสิร์ชเอ็นจิ้นเห็นเนื้อหาบางส่วนหรือทั้งหมดบนหน้า

เฟรมและ iFrame เป็นองค์ประกอบ HTML ที่ถูกต้อง (แม้ว่าบ่อยครั้งจะไม่ใช่แนวปฏิบัติที่ดีที่สุดจากมุมมองของ SEO) แต่ก็สามารถใช้ร่วมกับเทคนิคอื่นๆ เพื่อหลอกลวงผู้ใช้ได้

เฟรมที่มีการเปลี่ยนเส้นทาง JavaScript

การฝังเฟรมด้วยการเปลี่ยนเส้นทาง JavaScript อาจทำให้สไปเดอร์ของเครื่องมือค้นหาอยู่ที่หน้าแรกและเปลี่ยนเส้นทางผู้ใช้อย่างลับๆ โดยเปิดใช้ JavaScript ไปยังหน้า "ซ่อน" ที่สอง

ฉันไม่สามารถนึกถึงเหตุผล "หมวกขาว" ที่ถูกต้องว่าทำไมคุณถึงเลือกใช้สิ่งนี้ อาจส่งผลให้ได้รับโทษหรือแบน ตรวจสอบซอร์สโค้ดของเอกสารที่มีกรอบของคุณ ลบโค้ดนี้ หรือใช้การเปลี่ยนเส้นทางที่เป็นมิตรต่อ SEO ที่เหมาะสม

แท็ก <noscript> ได้รับการออกแบบมาเพื่อให้เทียบเท่ากับเนื้อหา JavaScript ที่ไม่ใช่ JavaScript เพื่อให้เฉพาะเบราว์เซอร์และเครื่องมือค้นหาเท่านั้นที่สามารถตีความรูปแบบขั้นสูงของเนื้อหาได้ แท็ก <noscript> อาจได้รับการปฏิบัติด้วยความสงสัย เนื่องจากเคยถูกใช้ในทางที่ผิดโดยผู้ส่งอีเมลขยะในอดีต

สร้างฟังก์ชัน JavaScript/ AJAX โดยคำนึงถึงการเพิ่มประสิทธิภาพแบบก้าวหน้า เพื่อให้เนื้อหาเหมาะสำหรับผู้ใช้ทุกคนและไม่ต้องใช้แท็ก <noscript> หากเว็บไซต์ของคุณใช้แท็ก <noscript> และคุณไม่สามารถอัปเดตโค้ดได้ ให้ตรวจสอบว่าข้อความ ลิงก์ และรูปภาพภายในแท็ก <noscript> อธิบายเนื้อหา JavaScript, AJAX หรือ Flash ที่ถูกต้องชัดเจนและกระชับ มารยาท.

หากหน้าหรือเว็บไซต์ที่ละเมิดมีปัญหาในการจัดทำดัชนี ให้ลองแก้ไขโค้ด <noscript> ซึ่งเป็นส่วนหนึ่งของการตรวจสอบ SEO ของเว็บไซต์อย่างละเอียด

เครือข่ายการจัดส่งเนื้อหา (CDN) ช่วยให้บริษัทต่างๆ สามารถเผยแพร่เนื้อหาแบบคงที่ไปยังที่ตั้งทางภูมิศาสตร์หลายแห่ง เพื่อปรับปรุงประสิทธิภาพสำหรับผู้ใช้ปลายทาง ขึ้นอยู่กับการกำหนดค่า CDN มีหลายวิธีในการกำหนดเส้นทางคำขอของไคลเอ็นต์ไปยังแหล่งที่มาที่ดีที่สุดเพื่อให้บริการเนื้อหา CDN เป็นพื้นที่ที่ซับซ้อน ซึ่งมักจะดำเนินการโดยบริษัทระดับโลกที่ต้องการให้บริการเนื้อหาแก่ผู้ใช้ในเวลาที่รวดเร็วที่สุด

หากคุณกำลังใช้ CDN ตรวจสอบให้แน่ใจว่าอนุญาตให้เครื่องมือค้นหาเข้าถึงเนื้อหาและข้อมูลเดียวกันกับที่ผู้ใช้เห็น และตรวจสอบให้แน่ใจว่าไม่มีสิ่งใดที่เครื่องมือค้นหาสามารถตีความผิดได้ว่าเป็นการหลอกลวง

แฮกเกอร์ได้ใช้ช่องโหว่บน CMS ทั่วไปเพื่อเพิ่มปริมาณการใช้งานไปยังเว็บไซต์บุคคลที่สามที่มีจริยธรรมน้อยกว่า ตัวอย่างหนึ่งคือ WordPress Pharma Hack ซึ่งใช้การปิดบังเพื่อนำเสนอเนื้อหาที่เกี่ยวข้องกับยาไปยังเครื่องมือค้นหา แต่ซ่อนเนื้อหานั้นจากเว็บมาสเตอร์

ตรวจสอบให้แน่ใจว่าซอฟต์แวร์ CMS เว็บเซิร์ฟเวอร์ และระบบปฏิบัติการของคุณใช้งานเวอร์ชันล่าสุดและได้รับการรักษาความปลอดภัย การหาประโยชน์ที่พบบ่อยที่สุดบางส่วน ได้แก่ รหัสผ่านที่ไม่ดี ซอฟต์แวร์หรือสคริปต์ที่ไม่ปลอดภัย พนักงานที่ไม่พอใจ และกลอุบายด้านวิศวกรรมสังคม

ส่วนหัว HTTP จะส่งข้อมูลเพิ่มเติมเกี่ยวกับหน้าที่ร้องขอไปยังสไปเดอร์ของเครื่องมือค้นหาหรือเว็บเบราว์เซอร์ ตัวอย่างเช่น สถานะของเพจ ข้อมูลแคช/หมดอายุ ข้อมูลเปลี่ยนเส้นทาง ฯลฯ

การส่งส่วนหัวที่แตกต่างกันไปยังเครื่องมือค้นหาเพื่อหลอกลวงอาจส่งผลให้ได้รับโทษ ตัวอย่างเช่น การแทนที่เนื้อหาที่ดีในหน้าที่มีอันดับสูงด้วยแบบฟอร์มลงทะเบียนและเปลี่ยนการหมดอายุและ/หรือส่วนหัวการควบคุมแคชเพื่อพยายามหลอกเครื่องมือค้นหาให้รักษาเวอร์ชันระดับสูงที่มีเนื้อหาที่ดีจะไม่ทำงาน

Googlebot อาจดาวน์โหลดเนื้อหาเป็นระยะโดยไม่คำนึงถึงการหมดอายุและส่วนหัวของการควบคุมแคช เพื่อยืนยันว่าเนื้อหาไม่มีการเปลี่ยนแปลงจริงๆ

คุณสามารถตรวจสอบสถานะของส่วนหัวการตอบกลับของเซิร์ฟเวอร์โดยใช้เครื่องมือ SEO ฟรีของเรา

หากต้องการอ้างอิง Google:

“หน้าดอร์เวย์มักจะเป็นชุดเพจคุณภาพต่ำขนาดใหญ่ ซึ่งแต่ละหน้าได้รับการปรับให้เหมาะสมสำหรับคำหลักหรือวลีเฉพาะ ในหลายกรณี หน้าดอร์เวย์ถูกเขียนขึ้นเพื่อจัดอันดับสำหรับวลีใดวลีหนึ่ง จากนั้นจึงนำผู้ใช้ไปยังปลายทางเดียว”

ที่มา: http://www.google.com/support/webmasters/bin/answer.py?hl=th&answer=66355

Matt Cutts พูดจาโผงผางเกี่ยวกับหน้า Doorway ที่นี่

เครื่องมือทดสอบหลายตัวแปร เช่น เครื่องมือเพิ่มประสิทธิภาพเว็บไซต์ของ Google ช่วยให้คุณสามารถปรับปรุงประสิทธิภาพของเว็บไซต์ของคุณโดยการทดสอบการเปลี่ยนแปลงเนื้อหาและการออกแบบเว็บไซต์ของคุณเพื่อปรับปรุงอัตราการแปลง (หรือการวัดที่สำคัญอื่นๆ)

การทดสอบหลายตัวแปรเป็นการใช้การปิดบังอย่างมีจริยธรรม อย่างไรก็ตาม Google ระบุว่า:

“หากเราพบไซต์ที่ใช้ชุดค่าผสมที่ไม่ใช่ต้นฉบับชุดเดียวที่ 100% เป็นเวลาหลายเดือน หรือหากหน้าเดิมของไซต์เต็มไปด้วยคำหลักที่ไม่เกี่ยวข้องกับชุดค่าผสมที่แสดงต่อผู้เข้าชม เราอาจลบไซต์นั้น จากดัชนีของเรา”

ไม่จำเป็นต้องปิดบังสแปมด้วยตัวเอง แต่เป็นเทคนิคหลอกล่อและสลับซึ่ง 301 เปลี่ยนเส้นทางโดเมนที่ไม่เกี่ยวข้อง (โดยปกติคือโดเมนสำหรับการขายหรือหมดอายุแล้ว แต่ยังคงมี PageRank หรือลิงก์ภายนอกที่สำคัญ) ไปยังโดเมนที่เป็นอันตรายหรือไม่เกี่ยวข้องเกี่ยวกับหัวข้อที่แตกต่างไปจากเดิมอย่างสิ้นเชิง .https://www.youtube.com/watch?v=70LR8H8pn1Mhttps://searchengineland.com/do-links-from-expired-domains-count-with-google-17811

สิ่งนี้ทำให้ผู้ใช้เข้าใจผิด เนื่องจากพวกเขาอาจคาดหวังเว็บไซต์อื่น และอาจส่ง anchor text ที่ไม่เกี่ยวข้องไปยังโดเมนของคุณ

นอกจากนี้ อย่าคาดหวังเครดิตสำหรับการจดทะเบียนโดเมนที่หมดอายุด้วยลิงก์ภายนอกโดยหวังว่าจะได้รับการประชาสัมพันธ์หรือลิงก์

ในอดีต เสิร์ชเอ็นจิ้นพยายามตีความและจัดทำดัชนีเนื้อหา Flash อย่างมีประสิทธิภาพ แต่ก็ดีขึ้นตลอดเวลา

เว็บมาสเตอร์ต้องพิจารณาผู้ใช้และเครื่องมือค้นหาที่ไม่มีเบราว์เซอร์ที่เปิดใช้งาน Flash และสร้างเว็บไซต์ HTML มาตรฐาน "เบื้องหลัง" สำหรับเครื่องมือค้นหา ใช้แท็ก <noscript>, JavaScript หรือวิธีการที่คล้ายกันเพื่อจัดทำดัชนีเนื้อหาที่เป็นข้อความ ขออภัย เครื่องมือค้นหาอาจระบุสิ่งนี้โดยไม่ได้ตั้งใจว่าเป็นการปิดบัง หากเนื้อหาที่จัดทำดัชนีจากเนื้อหา Flash ไม่ตรงกับเนื้อหาที่เป็นข้อความ

การสร้างเว็บไซต์ทั้งหมดใน Flash ยังไม่ใช่ความคิดที่ดีจากมุมมองของ SEO อย่างไรก็ตาม หากคุณมีเนื้อหา Flash ให้พิจารณาใช้ SWFObject หรือเทคนิคที่คล้ายคลึงกันเพื่อให้แน่ใจว่า Flash จะลดระดับลงอย่างสวยงามสำหรับทั้งผู้ใช้และเครื่องมือค้นหา

Popover div และโฆษณาเพียงอย่างเดียวไม่ได้ปิดบัง เมื่อไม่สามารถปิดโฆษณาคั่นระหว่างหน้าหรือ div แบบป๊อปโอเวอร์ได้ (เช่น เว้นแต่ผู้ใช้จะลงทะเบียน) คุณอาจนำเสนอเนื้อหาต่อเครื่องมือค้นหาและแบบฟอร์มลงทะเบียนแก่ผู้ใช้ของคุณ

ตรวจสอบให้แน่ใจว่าผู้ใช้สามารถปิดหรือข้ามโฆษณาคั่นระหว่างหน้า ป๊อปอัป ป๊อปอัป div ที่วางซ้อน ไลท์บ็อกซ์ และอื่นๆ และดูเนื้อหาที่มีได้

AJAX (Asynchronous JavaScript And XML) เป็นรูปแบบของ JavaScript ที่ช่วยให้เว็บเพจสามารถดึงเนื้อหาไดนามิกจากเซิร์ฟเวอร์โดยไม่ต้องโหลดหน้าซ้ำ ได้รับความนิยมอย่างมากในช่วงสองสามปีที่ผ่านมาและมัก (มากกว่า) ที่ใช้ในแอปพลิเคชัน Web 2.0 จำนวนมาก

สามารถใช้ AJAX ในลักษณะหลอกลวงเพื่อนำเสนอเนื้อหาต่างๆ ต่อผู้ใช้และเครื่องมือค้นหา - อย่าใช้

นอกจากนี้ อีกด้านหนึ่งของเหรียญ ในแนวทาง "การปิดบังเชิงลบ" ผู้ใช้อาจเห็นเนื้อหา แต่เสิร์ชเอ็นจิ้นจะไม่เห็น เนื่องจากไม่สามารถดำเนินการเรียก JavaScript ที่ดึงเนื้อหาไดนามิกจากเซิร์ฟเวอร์ได้ สิ่งที่ต้องตรวจสอบ

เทคนิคหลายอย่างที่อธิบายไว้ในบทความนี้อาจนำมารวมกัน สับเป็นชิ้น หรือดัดแปลงเพื่อพยายามโกงเครื่องมือค้นหาโดยเปล่าประโยชน์

ตัวอย่างหนึ่งคือการรวม JavaScript และคุกกี้เพื่อปิดบังเนื้อหา หากฟังก์ชัน JavaScript ไม่สามารถเขียนหรืออ่านคุกกี้ได้ (เช่น สไปเดอร์ของเครื่องมือค้นหา) ให้แสดงเนื้อหาที่แตกต่างจากผู้ใช้มาตรฐานที่เปิดใช้งานคุกกี้ นอกจากนี้ยังมีตัวอย่างสคริปต์ JQuery บางส่วนที่จะช่วยให้บุคคลที่ไร้ยางอายทำสิ่งนี้ได้

การปิดบังลิงก์หมายถึงการส่งผู้ใช้ไปยัง URL ที่แตกต่างจากที่คลิกโดยใช้การเปลี่ยนเส้นทางในบางรูปแบบ การเปลี่ยนเส้นทางสามารถใช้ได้ทั้งดีและไม่ดีดังที่เราได้เห็นข้างต้น การปิดบังลิงก์มักใช้เพื่อวัตถุประสงค์ในการวิเคราะห์หรือบำรุงรักษา มีเหตุผลหลายประการในการทำเช่นนี้ เช่น

  • เพื่อรักษาลิงก์ไปยังพันธมิตรภายใน PDF หรือแอปพลิเคชันที่รวบรวมไว้ การใช้ vanity URL ที่คล้ายกันและเปลี่ยนเส้นทางด้านบนเพื่อให้แน่ใจว่าหากพันธมิตรอัปเดตโครงสร้าง URL คุณสามารถอัปเดตการเปลี่ยนเส้นทางบน vanity URL ได้ และทำให้แน่ใจว่าลิงก์ใน eBook และเนื้อหาที่รวบรวมไว้ยังคงใช้งานได้
  • Vanity URL ที่ใช้ในสื่อการตลาดและโฆษณาซึ่งจำง่ายกว่า URL เวอร์ชันมาตรฐาน

แน่นอนว่าสิ่งนี้อาจถูกใช้เพื่อหลอกลวงและหลอกลวง เช่น การปลอมลิงก์พันธมิตร (เช่น แทนที่ลิงก์ด้วย http://mysite.com/vanity-url และเปลี่ยนเส้นทางไปที่ http://affiliate.com/offer.html ?=รหัสพันธมิตรของฉัน)

การแก้ไข anchor text หรือแอตทริบิวต์ของลิงก์ด้วย JavaScript หรือกลไกที่คล้ายกันเพื่อหลอกลวงหรือหลอกลวงผู้ใช้ นี่คือรูปแบบหนึ่งของการปิดบังหน้าเว็บจริงที่ปรับเปลี่ยนเพียงส่วนเล็กๆ ของเพจเพื่อหลอกลวงผู้ใช้

  • จี้เหตุการณ์ onClick เพื่อส่งผู้ใช้ไปยัง URL อื่นไปยังเครื่องมือค้นหา
  • การเพิ่มแอตทริบิวต์ rel=”nofollow” ให้กับลิงก์ที่แสดงไปยังเครื่องมือค้นหาและลบออกจากรหัสที่แสดงต่อผู้ใช้
  • การแก้ไข anchor text ของลิงก์ให้รวมคีย์เวิร์ดไว้ใน anchor text ที่ส่งไปยังเครื่องมือค้นหาและแสดงสิ่งที่แตกต่างไปจากผู้ใช้

หลีกเลี่ยงการจี้ลิงก์เพื่อหลอกลวงผู้ใช้ เนื่องจากอาจส่งผลให้เครื่องมือค้นหาได้รับโทษหรือถูกแบนเว็บไซต์ของคุณ

มีรูปแบบทางจริยธรรมของเทคนิคนี้เพื่อให้แน่ใจว่าทั้งผู้ใช้และเครื่องมือค้นหาสามารถดูเนื้อหา AJAX ของคุณโดยใช้ HiJAX ตามที่แนะนำในบล็อกของ Google

การซ่อนข้อความขัดต่อ TOS และหลักเกณฑ์สำหรับผู้ดูแลเว็บของ Google เป็นรูปแบบการปิดบังเนื่องจากเครื่องมือค้นหาสามารถเห็นเนื้อหาที่เป็นข้อความ แต่ผู้ใช้ไม่สามารถทำได้ หลีกเลี่ยงข้อความที่ซ่อนอยู่ประเภทต่อไปนี้:

  • ข้อความบนพื้นหลังที่มองไม่เห็น (เช่น สีเทาเข้มบนพื้นดำ)
  • การตั้งค่าขนาดตัวอักษรเป็น0
  • การจัดรูปแบบข้อความ anchor text ที่มีรูปแบบสมบูรณ์ของคีย์เวิร์ด เช่น ข้อความเนื้อหามาตรฐาน โดยที่ผู้ใช้จะไม่ทราบว่าเป็นลิงก์
  • Cascading Style Sheets (CSS) แสดง:ไม่มี
  • ข้อความหลังภาพ. มักเป็นหัวข้อที่ยุ่งยากและมักเปิดให้อภิปรายในหมู่ SEO หากข้อความที่อยู่ด้านหลังภาพเป็นการนำเสนอภาพที่ถูกต้องและยุติธรรม (เช่น ส่วนหัวที่มีฟอนต์แบบกำหนดเอง) คุณ “น่าจะใช้ได้” ในการอ้างคำพูดของ Matt Cutts ทางออกที่ดีที่สุดจะขึ้นอยู่กับสถานการณ์เฉพาะของคุณ อย่างไรก็ตาม ตรวจสอบแหล่งข้อมูลเหล่านี้เพื่อดูคำแนะนำ: W3C: การใช้ CSS เพื่อแทนที่ข้อความด้วยรูปภาพ , Farner Image Replacement (FIR) , Scalable Inman Flash Replacement (sIFR) (โปรดทราบว่าข้อความที่แทนที่ sIFR อาจ ไม่ปรากฏใน Google Preview ณ เดือนธันวาคม 2010)

หากปริมาณการใช้เครื่องมือค้นหามีความสำคัญต่อคุณ ตรวจสอบให้แน่ใจว่าคุณได้พิจารณาสิ่งต่อไปนี้เกี่ยวกับการปิดบัง:

  • ตรวจสอบให้แน่ใจว่าคุณคุ้นเคยกับรูปแบบการปิดบังด้านบนที่เห็นได้ชัดและไม่ชัดเจนนัก และตระหนักดีถึงวิธีการใช้สิ่งเหล่านี้บนไซต์ของคุณเพื่อหลีกเลี่ยงบทลงโทษที่อาจเกิดขึ้น
  • หากคุณกำลังใช้รูปแบบการปิดบังบางรูปแบบ ตรวจสอบให้แน่ใจว่าสิ่งนี้ได้รับการตรวจสอบอย่างเหมาะสมจากมุมมองของ SEO เพื่อหลีกเลี่ยงบทลงโทษที่อาจเกิดขึ้น