เทคนิคการปิดบัง SEO ที่ควรหลีกเลี่ยงในปี 2011
เผยแพร่แล้ว: 2011-01-27Matt Cutts หัวหน้า Google Web Spam สละเวลาจาก Ozzie และ Emmy (The Matt Cutts “Catts”) เมื่อสิ้นปี 2010 เพื่อโพสต์เรื่องเล็กน้อยสำหรับผู้ดูแลเว็บและ SEO ผ่านทาง Twitter ซึ่งฉันแน่ใจว่าจะมีอาการเมาค้าง สำหรับหมวกดำสองสามตัวในช่วงเทศกาลวันหยุด
Google จะ [ดู] การปิดบังมากขึ้นในไตรมาสที่ 1 ปี 2011 ไม่ใช่แค่เนื้อหาของหน้าเท่านั้น หลีกเลี่ยงส่วนหัว/การเปลี่ยนเส้นทางไปยัง Googlebot ที่แตกต่างกันแทนผู้ใช้
การปิดบังหน้าเว็บจริงเป็นเทคนิคที่ใช้เพื่อแสดงเนื้อหา เลย์เอาต์ ฟังก์ชัน หรือส่วนหัว (หน้าหรือส่วนประกอบบางส่วนของหน้าที่แตกต่างไปจากเดิมอย่างสิ้นเชิง หรือที่เรียกว่า Mosaic cloaking) ต่อสไปเดอร์ของเครื่องมือค้นหามากกว่าเว็บเบราว์เซอร์ของผู้ใช้
การปิดบังอย่างมีจริยธรรมไม่ใช่ “หมวกดำ” อย่างไรก็ตาม ในอดีตนักส่งสแปมได้ใช้วิธีในการจัดการเทคนิคการปิดบัง เพื่อความชัดเจน ให้เรียกมันว่าการปิดบังสแปมเพื่อล้อเลียนอัลกอริทึม (Google) นี่ไม่ใช่ปรากฏการณ์ใหม่ ในช่วงเริ่มต้น แท็ก meta keyword ถูกใช้ในทางที่ผิดโดยผู้ส่งอีเมลขยะ และด้วยเหตุนี้จึงไม่ใช่ปัจจัยในการจัดอันดับอีกต่อไป และแท็ก <noscript> อาจได้รับการปฏิบัติด้วยความสงสัยเนื่องจากเคยถูกใช้ในทางที่ผิด (บางทีเราควรเปิด ที่หลบภัยสำหรับองค์ประกอบ HTML ที่ถูกละเมิด….)
ก่อนอื่น ให้ฉันบอกว่า ถ้าเป็นไปได้ หลีกเลี่ยงการปิดบัง การปิดบังหน้าเว็บจริงเป็นการฝึกที่มีความเสี่ยงสูง หากจำเป็นต้องดำเนินการ ควรทำในลักษณะที่มีจริยธรรมที่เหมาะสม โดยปฏิบัติตามหลักเกณฑ์สำหรับผู้ดูแลเว็บของ Google เพื่อให้แน่ใจว่าเว็บไซต์ของคุณจะไม่ถูกลงโทษหรือหลุดออกจากดัชนี
ขออภัย เว็บมาสเตอร์บางคนอาจไม่เข้าใจผลที่ตามมา และปิดบังเนื้อหา ลิงก์ หรือเว็บไซต์ทั้งหมดโดยไม่ได้ตั้งใจ บทความนี้จะสรุปการทำงานทั่วไปในไซต์บางส่วนที่อาจ (ผิดพลาด) ตีความว่าเป็นการปิดบังสแปม
โปรดทราบว่า Google กำลังตรวจสอบอินสแตนซ์ของการปิดบังสแปมและการแบนเว็บไซต์จากดัชนีอย่างแข็งขัน พวกเขายังติดตามการตรวจจับการปิดบังและลิงก์ที่ผิดปกติด้วยการแจ้งเตือนไปยังผู้ดูแลเว็บผ่านเครื่องมือของผู้ดูแลเว็บ ขณะนี้ Google ตรวจพบการ ปิดบังสแปม อัลกอริธึมได้ดีขึ้นและดีขึ้นเรื่อยๆ แม้ว่าการส่ง IP จะไม่ผิดพลาด และแน่นอนว่า Google สนับสนุนให้คู่แข่งของคุณใช้รายงานสแปมเสมอ หากตรวจพบบางสิ่งที่เกี่ยวกับหน้าเว็บของคุณ
การระบุการปิดบังสแปมโดยใช้อัลกอริทึมต้องใช้เครื่องมือค้นหาเพื่อเปรียบเทียบหน้าเว็บเดียวที่ได้รับผ่านกลไกตั้งแต่สองกลไกขึ้นไป (เช่น ช่วง IP สองช่วงขึ้นไป ตัวระบุ User-agent หรือฟังก์ชัน HTML/ JavaScript ในระดับต่างๆ กัน) Microsoft ได้ยื่นจดสิทธิบัตรเมื่อปลายปี 2549 โดยอ้างว่าระบบที่อำนวยความสะดวกในการตรวจจับหน้าเว็บที่ปิดบัง
โดยธรรมชาติแล้ว สิ่งนี้นำไปสู่คำถามว่าเครื่องมือค้นหาจะรวบรวมและวิเคราะห์ตัวอย่างสองตัวอย่างของหน้าเว็บเพื่อเปรียบเทียบได้อย่างไร วิธีการบางอย่างอาจรวมถึง:
- การแยกความแตกต่างของเนื้อหาบางส่วน โดยใช้การวิเคราะห์หัวข้อเนื้อหา การแบ่งส่วนหน้า การวิเคราะห์ความหมายแฝง (LSA) การใช้คำหลัก ลิงก์ในหน้า และปัจจัยอื่นๆ ในหน้า
- ที่อยู่ IP ที่ต่างกัน/ ช่วง IP หรือพร็อกซีที่แยกจากกันเพื่อวิเคราะห์เว็บสแปม
- user-agent ต่างๆ (เช่น ใช้เบราว์เซอร์ user agent เพื่อตรวจสอบเนื้อหาที่ปิดบัง)
- รายงานสแปมจากชุมชนผู้ดูแลเว็บ
- การทดสอบผู้ใช้
- การวิเคราะห์การเปลี่ยนเส้นทางแบบลูกโซ่มากกว่า 5 รายการเพื่อตรวจสอบการปิดบัง (อาจจำกัดการจัดทำดัชนีและการไหลของเพจแรงก์ อำนาจ ความไว้วางใจ ฯลฯ ผ่านการเปลี่ยนเส้นทางแบบลูกโซ่ 5 ครั้ง)
- ปรับปรุงการตีความโค้ด JavaScript (เฉพาะการประเมินฟังก์ชัน JavaScript ที่ซับซ้อนและ/หรือเข้ารหัสซึ่งมีลิงก์หรือการเปลี่ยนเส้นทาง)
- กลไกในการยอมรับคุกกี้ (อาจร่วมกับ JavaScript และการวิเคราะห์การเปลี่ยนเส้นทางด้านบน)
แน่นอนว่าการรวบรวมข้อมูลสามารถเอาต์ซอร์ซไปยังบริษัทอื่นเพื่อหลีกเลี่ยงปัญหาเรื่องการจัดส่ง IP ได้
มีหลายกรณีที่บริษัทอาจต้องการให้ข้อมูลที่แตกต่างหรือเพิ่มเติมแก่ผู้ใช้ ตัวอย่างเช่น:
- การกำหนดเป้าหมายตามภูมิศาสตร์
- ผู้ใช้ที่เข้าสู่ระบบ (ประสบการณ์โฮมเพจที่กำหนดเอง ฯลฯ)
- การติดตามการอ้างอิง – ตัวอย่างเช่น ให้คำติชมกับผู้ใช้ตามคำค้นหาของเครื่องมือค้นหา เช่น การเน้นคำบนหน้าที่ตรงกับคำค้นหา
- การปิดบังอุปกรณ์สำหรับโทรศัพท์มือถือและอุปกรณ์สัมผัส
- การเพิ่มประสิทธิภาพสำหรับเบราว์เซอร์เฉพาะหรือเพื่อความเข้ากันได้แบบย้อนหลัง
- การเพิ่มประสิทธิภาพการแสดงผล (แม้ว่าโดยปกติจะถูกควบคุมผ่าน CSS)
- คลิกแรกฟรี – หรือห้าคลิกแรกฟรี
- A/B หรือการทดสอบหลายตัวแปร
- Vanity URL (การปิดบังลิงก์)
- แสดงการตรวจสอบอายุ (www.bacardi.com ใช้การตรวจหา user-agent และคุกกี้ร่วมกันเพื่อแสดงหน้าต้อนรับการตรวจสอบอายุแก่ผู้ใช้ แต่อนุญาตให้เครื่องมือค้นหาเข้าถึงเว็บไซต์ได้ แม้ว่า Google จะอายุเพียง 14 ปี)
- โหลดบาลานซ์
- การเปลี่ยนแบบอักษร (ผ่านเทคโนโลยีเช่น sIFR หรือ Cufon) – หมายเหตุ: อาจแต่ไม่เหมาะสมสำหรับ Google Preview (ณ เดือนธันวาคม 2010)
- SWFObject
ตรวจสอบให้แน่ใจว่าคุณได้พิจารณาถึงผลกระทบ SEO เมื่อใช้วิธีหรือการทำงานใดๆ ที่กล่าวถึงข้างต้น เนื่องจากการกำหนดค่าผิดพลาดอาจส่งผลให้เกิดการปิดบังสแปมหรืออาจไม่เหมาะสมสำหรับ SEO
โอเค นี่ไม่ใช่บทช่วยสอนเกี่ยวกับวิธีการปิดบัง มันคือ "รายการที่ไม่มีการปิดบังสแปมปี 2011" หรืออย่างน้อยที่สุด เทคนิคที่ควรหลีกเลี่ยงหรือปัญหาที่ต้องแก้ไขในช่วงต้นปี 2011
การปิดบังบางรูปแบบเป็นการจงใจ (เช่น การส่ง IP หรือการปิดบังตัวแทนผู้ใช้) อย่างไรก็ตาม การปิดบังหน้าเว็บจริง-สแปมในรูปแบบต่างๆ อาจเกิดขึ้นโดยไม่ได้ตั้งใจ ประเภทของการปิดบังสแปมโดยไม่ได้ตั้งใจซึ่งทำให้คุณถูกแบนจาก Google โดยไม่ได้ตั้งใจนั้นเป็นเรื่องที่น่ากังวลมากที่สุด เนื่องจากผู้ดูแลเว็บอาจไม่ทราบถึงปัญหาดังกล่าว แม้แต่บริษัทขนาดใหญ่ก็ยังเข้าใจผิดในบางครั้ง
เราจะตรวจสอบ เทคนิคการปิดบังสแปมที่พบบ่อย ที่สุดด้านล่าง เพื่อให้ความรู้และให้แน่ใจว่าผู้ดูแลเว็บและ SEO สามารถตรวจสอบได้ว่าพวกเขาไม่มีพวกเขาอยู่ในเว็บไซต์ของตน
โดยทั่วไปมีสามวิธีที่ผู้ดูแลเว็บปิดบังเนื้อหาจากผู้ใช้หรือเครื่องมือค้นหา:
- IP-การจัดส่ง
- การวิเคราะห์ User-agent (คุณสามารถตรวจสอบการปิดบัง User-agent โดยใช้ตัวตรวจสอบ SEO Cloaking ฟรีของ Bruce Clay
- การใช้ประโยชน์จากพฤติกรรมของเครื่องมือค้นหาที่รู้จัก เช่น การทำงานของ JavaScript หรือการเปลี่ยนเส้นทาง และการสร้างดัชนีหรือความสามารถของสไปเดอร์ขององค์ประกอบ HTML ต่างๆ
การส่งเนื้อหาที่แตกต่างกันตามที่อยู่ IP ของเว็บเบราว์เซอร์ที่ร้องขอหรือสไปเดอร์ของเครื่องมือค้นหา [การจัดส่ง IP มีรายละเอียดเพิ่มเติมที่นี่]
ย้อนกลับ DNS & ส่งต่อ DNS
การค้นหา DNS ย้อนกลับและส่งต่อ DNS ไม่ใช่รูปแบบของการปิดบัง แต่อาจใช้เพื่อสืบค้นบันทึก DNS ของที่อยู่ IP ที่ร้องขอ Google ให้รายละเอียดเกี่ยวกับวิธีการยืนยัน Googlebot ว่าเป็นใคร
การแสดงเนื้อหาที่แตกต่างกันตาม User-agent ของเว็บเบราว์เซอร์ที่ร้องขอหรือสไปเดอร์ของเครื่องมือค้นหา ตัวอย่างเช่น Googlebot/2.1 (+http://www.google.com/bot.html) หรือ Mozilla/5.0 (Windows; U; MSIE 7.0; Windows NT 6.0; en-US)
Google อาจจัดทำดัชนีหน้าที่มี JavaScript แต่อาจไม่ติดตามการเปลี่ยนเส้นทาง JavaScript อย่างไรก็ตาม เราเห็นการปรับปรุงที่สำคัญในการตีความโค้ด JavaScript ของ Google (ตัวอย่างเช่น >ตัวสร้างการแสดงตัวอย่างของ Google แสดง JavaScript, AJAX, CSS3, เฟรม และ iframes)
บางครั้ง ผู้ดูแลเว็บใช้การเปลี่ยนเส้นทาง JavaScript เมื่อไม่สามารถใช้การเปลี่ยนเส้นทางฝั่งเซิร์ฟเวอร์ ออกจาก Googlebot ในหน้าแรกโดยไม่ได้ตั้งใจ และส่งเว็บเบราว์เซอร์ (ซึ่งตามหลังการเปลี่ยนเส้นทาง JavaScript) ไปยังหน้าที่ 2 ที่มีเนื้อหาต่างกัน และถูกตั้งค่าสถานะว่าเป็นการปิดบัง-สแปม
ระวังรหัสต่อไปนี้:
<script type="text/javascript"> window.location="http://www.yoursite.com/second-page.html" </script>
แท็กที่เพิ่มในส่วนหัวในหน้า HTML เพื่อเปลี่ยนเส้นทางผู้ใช้ไปยังหน้าอื่นหลังจากช่วงเวลาที่กำหนด เมตาแท็กรีเฟรชไม่ถือเป็นการปิดบังเมื่อใช้โดยลำพัง แต่อาจใช้ร่วมกับ JavaScript เฟรมหรือเทคนิคอื่นๆ เพื่อส่งผู้ใช้ไปยังหน้าอื่นไปยังสไปเดอร์ของเครื่องมือค้นหา
ระวังรหัสต่อไปนี้:
<meta http-equiv="refresh" content="0;url=http://www.yoursite.com/second-page.html">
การรีเฟรชเมตาสองครั้ง/ หลายรายการหรือการปิดบังผู้อ้างอิง
อาจใช้เมตารีเฟรชหลายรายการเพื่อซ่อนผู้อ้างอิงจากเว็บไซต์ในเครือ หลีกเลี่ยงการผูกมัดการเปลี่ยนเส้นทางหลายครั้งเนื่องจากอาจส่งผลเสียต่อ SEO และอาจขัดต่อข้อกำหนดในการให้บริการ (TOS) ของพันธมิตรในเครือของคุณ
การรีเฟรชเมตาใน JavaScript หรือแท็ก <noscript>
ตกลง ตอนนี้เรากำลังเข้าสู่อาณาจักรของ "หมวกดำ" ไม่น่าเป็นไปได้ที่เว็บมาสเตอร์จะรวมการรีเฟรชเมตากับ JavaScript เว้นแต่จะไม่ได้ผล
ซึ่งเป็นเรื่องง่ายสำหรับเครื่องมือค้นหาที่จะตรวจพบ อย่าทำมัน
เสิร์ชเอ็นจิ้นอาจไม่ติดตามการเปลี่ยนเส้นทางแบบลูกโซ่หลายครั้ง (ตามหลักเกณฑ์ในข้อมูลจำเพาะ HTML หมายเลขที่แนะนำตั้งไว้ที่ 5 การเปลี่ยนเส้นทาง) Google อาจติดตามการเปลี่ยนเส้นทางแบบลูกโซ่ประมาณ 5 ครั้ง เว็บเบราว์เซอร์อาจติดตามมากขึ้น
การเปลี่ยนเส้นทางแบบ back-to-back หลายครั้ง (โดยเฉพาะอย่างยิ่งการรวมประเภทการเปลี่ยนเส้นทาง 301, 302, meta refresh, JavaScript เป็นต้น) เข้าด้วยกัน ส่งผลกระทบต่อเวลาในการโหลดหน้าเว็บ อาจส่งผลต่อการไหลของ PageRank (แม้กระทั่งการเปลี่ยนเส้นทาง 301 ก็อาจเห็น PageRank ลดลงบางส่วน) และอาจถือเป็นการปิดบังหน้าเว็บจริง สแปม
ฉันไม่พบข้อมูลใดๆ เกี่ยวกับจำนวนการเปลี่ยนเส้นทางที่เว็บเบราว์เซอร์จะติดตาม ดังนั้นฉันจึงสร้างสคริปต์เปลี่ยนเส้นทางแบบรวดเร็วเพื่อทดสอบเบราว์เซอร์บางตัวที่ติดตั้งในเครื่องของฉัน และให้สถิติบางอย่างเกี่ยวกับจำนวนการเปลี่ยนเส้นทางโดยประมาณที่ตามด้วย (ตามประเภทการเปลี่ยนเส้นทาง) . ฉันจำกัดสคริปต์ไว้ที่การเปลี่ยนเส้นทางแบบลูกโซ่สูงสุด 5,000 ครั้ง
เว็บเบราว์เซอร์ | เวอร์ชั่น | ประมาณ # จาก 301 เปลี่ยนเส้นทาง | ประมาณ # จาก 302 เปลี่ยนเส้นทาง | ประมาณ # ของการเปลี่ยนเส้นทาง Meta Refresh Redirects | ประมาณ # ของการเปลี่ยนเส้นทาง JavaScript |
Google Chrome | 8.0.552.224 | 21 | 21 | 21 | มากกว่า 5000 (ไม่ทราบขีดจำกัด) |
Internet Explorer | 8.0.6001.18702IC | 11 | 11 | มากกว่า 5000 (ไม่ทราบขีดจำกัด) | มากกว่า 5000 (ไม่ทราบขีดจำกัด) |
Mozilla Firefox | 3.5.16 | 20 | 20 | 20 | มากกว่า 3000 (ไม่ทราบขีดจำกัด เนื่องจากเบราว์เซอร์หยุดทำงานหลังจากเปลี่ยนเส้นทาง 3,000 JS) |
ซาฟารี | 3.1.2 (525.21) | 16 | 16 | มากกว่า 5000 (ไม่ทราบขีดจำกัด) | มากกว่า 5000 (ไม่ทราบขีดจำกัด) |
ขณะที่เขียนสคริปต์ เราคิดว่าเราจะทำการทดสอบเพิ่มเติมและส่ง URL การเปลี่ยนเส้นทางไปยัง Google นอกจากนี้เรายังเชื่อมโยงกับสคริปต์จาก Twitter ผลลัพธ์อยู่ในตารางด้านล่าง
เครื่องมือค้นหา | IP โฮสต์ตัวแทนผู้ใช้ | ประมาณ # จาก 301 เปลี่ยนเส้นทางตาม |
Microsoft *สันนิษฐานตามช่วง IP Mozilla/4.0 (เข้ากันได้; MSIE 7.0; Windows NT 6.0) | 65.52.17.79 | 25 |
Google Mozilla/5.0 (เข้ากันได้ Googlebot/2.1; +http://www.google.com/bot.html) | 66.249.68.249 | 5 |
Yahoo Mozilla/5.0 (เข้ากันได้ Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp) | 67.195.111.225 | 4 |
ทวิตเตอร์ Twitterbot/0.1 | 128.242.241.94 | 3 |
LinkedIn LinkedInBot/1.0 (เข้ากันได้ Mozilla/5.0; Jakarta Commons-HttpClient/3.1 +http://www.linkedin.com) | 216.52.242.14 | 1 |
โพสต์แรงค์ โพสต์แรงก์/2.0 (postrank.com) | 204.236.206.79 | 0 |
แม้ว่า Googlebot จะรวบรวมข้อมูลการเปลี่ยนเส้นทางถาวรเพียง 5 รายการในกรณีนี้ แต่อาจถือว่ายุติธรรมที่จะสันนิษฐานว่า Google อาจใช้การตรวจสอบตามการรวบรวมข้อมูลเพื่อทดสอบการเปลี่ยนเส้นทางที่เกินขีดจำกัดของบอทการเปลี่ยนเส้นทาง 5 รายการในลักษณะเดียวกันกับ Microsoft ข้างต้น ซึ่งติดตามการเปลี่ยนเส้นทางแบบลูกโซ่ประมาณ 25 รายการ หมายเหตุ: เราคิดว่านี่คือ IP ที่ Microsoft เป็นเจ้าของโดยอิงตามข้อมูล IP Whois จากเครื่องมือโดเมน

เฟรมช่วยให้เว็บมาสเตอร์ฝังเอกสารอื่นภายในหน้า HTML ตามปกติแล้ว เสิร์ชเอ็นจิ้นไม่ได้ระบุแหล่งที่มาของเนื้อหาที่อยู่ในเฟรมของเพจหลักได้ดี ทำให้เว็บมาสเตอร์สามารถป้องกันไม่ให้เสิร์ชเอ็นจิ้นเห็นเนื้อหาบางส่วนหรือทั้งหมดบนหน้า
เฟรมและ iFrame เป็นองค์ประกอบ HTML ที่ถูกต้อง (แม้ว่าบ่อยครั้งจะไม่ใช่แนวปฏิบัติที่ดีที่สุดจากมุมมองของ SEO) แต่ก็สามารถใช้ร่วมกับเทคนิคอื่นๆ เพื่อหลอกลวงผู้ใช้ได้
เฟรมที่มีการเปลี่ยนเส้นทาง JavaScript
การฝังเฟรมด้วยการเปลี่ยนเส้นทาง JavaScript อาจทำให้สไปเดอร์ของเครื่องมือค้นหาอยู่ที่หน้าแรกและเปลี่ยนเส้นทางผู้ใช้อย่างลับๆ โดยเปิดใช้ JavaScript ไปยังหน้า "ซ่อน" ที่สอง
ฉันไม่สามารถนึกถึงเหตุผล "หมวกขาว" ที่ถูกต้องว่าทำไมคุณถึงเลือกใช้สิ่งนี้ อาจส่งผลให้ได้รับโทษหรือแบน ตรวจสอบซอร์สโค้ดของเอกสารที่มีกรอบของคุณ ลบโค้ดนี้ หรือใช้การเปลี่ยนเส้นทางที่เป็นมิตรต่อ SEO ที่เหมาะสม
แท็ก <noscript> ได้รับการออกแบบมาเพื่อให้เทียบเท่ากับเนื้อหา JavaScript ที่ไม่ใช่ JavaScript เพื่อให้เฉพาะเบราว์เซอร์และเครื่องมือค้นหาเท่านั้นที่สามารถตีความรูปแบบขั้นสูงของเนื้อหาได้ แท็ก <noscript> อาจได้รับการปฏิบัติด้วยความสงสัย เนื่องจากเคยถูกใช้ในทางที่ผิดโดยผู้ส่งอีเมลขยะในอดีต
สร้างฟังก์ชัน JavaScript/ AJAX โดยคำนึงถึงการเพิ่มประสิทธิภาพแบบก้าวหน้า เพื่อให้เนื้อหาเหมาะสำหรับผู้ใช้ทุกคนและไม่ต้องใช้แท็ก <noscript> หากเว็บไซต์ของคุณใช้แท็ก <noscript> และคุณไม่สามารถอัปเดตโค้ดได้ ให้ตรวจสอบว่าข้อความ ลิงก์ และรูปภาพภายในแท็ก <noscript> อธิบายเนื้อหา JavaScript, AJAX หรือ Flash ที่ถูกต้องชัดเจนและกระชับ มารยาท.
หากหน้าหรือเว็บไซต์ที่ละเมิดมีปัญหาในการจัดทำดัชนี ให้ลองแก้ไขโค้ด <noscript> ซึ่งเป็นส่วนหนึ่งของการตรวจสอบ SEO ของเว็บไซต์อย่างละเอียด
เครือข่ายการจัดส่งเนื้อหา (CDN) ช่วยให้บริษัทต่างๆ สามารถเผยแพร่เนื้อหาแบบคงที่ไปยังที่ตั้งทางภูมิศาสตร์หลายแห่ง เพื่อปรับปรุงประสิทธิภาพสำหรับผู้ใช้ปลายทาง ขึ้นอยู่กับการกำหนดค่า CDN มีหลายวิธีในการกำหนดเส้นทางคำขอของไคลเอ็นต์ไปยังแหล่งที่มาที่ดีที่สุดเพื่อให้บริการเนื้อหา CDN เป็นพื้นที่ที่ซับซ้อน ซึ่งมักจะดำเนินการโดยบริษัทระดับโลกที่ต้องการให้บริการเนื้อหาแก่ผู้ใช้ในเวลาที่รวดเร็วที่สุด
หากคุณกำลังใช้ CDN ตรวจสอบให้แน่ใจว่าอนุญาตให้เครื่องมือค้นหาเข้าถึงเนื้อหาและข้อมูลเดียวกันกับที่ผู้ใช้เห็น และตรวจสอบให้แน่ใจว่าไม่มีสิ่งใดที่เครื่องมือค้นหาสามารถตีความผิดได้ว่าเป็นการหลอกลวง
แฮกเกอร์ได้ใช้ช่องโหว่บน CMS ทั่วไปเพื่อเพิ่มปริมาณการใช้งานไปยังเว็บไซต์บุคคลที่สามที่มีจริยธรรมน้อยกว่า ตัวอย่างหนึ่งคือ WordPress Pharma Hack ซึ่งใช้การปิดบังเพื่อนำเสนอเนื้อหาที่เกี่ยวข้องกับยาไปยังเครื่องมือค้นหา แต่ซ่อนเนื้อหานั้นจากเว็บมาสเตอร์
ตรวจสอบให้แน่ใจว่าซอฟต์แวร์ CMS เว็บเซิร์ฟเวอร์ และระบบปฏิบัติการของคุณใช้งานเวอร์ชันล่าสุดและได้รับการรักษาความปลอดภัย การหาประโยชน์ที่พบบ่อยที่สุดบางส่วน ได้แก่ รหัสผ่านที่ไม่ดี ซอฟต์แวร์หรือสคริปต์ที่ไม่ปลอดภัย พนักงานที่ไม่พอใจ และกลอุบายด้านวิศวกรรมสังคม
ส่วนหัว HTTP จะส่งข้อมูลเพิ่มเติมเกี่ยวกับหน้าที่ร้องขอไปยังสไปเดอร์ของเครื่องมือค้นหาหรือเว็บเบราว์เซอร์ ตัวอย่างเช่น สถานะของเพจ ข้อมูลแคช/หมดอายุ ข้อมูลเปลี่ยนเส้นทาง ฯลฯ
การส่งส่วนหัวที่แตกต่างกันไปยังเครื่องมือค้นหาเพื่อหลอกลวงอาจส่งผลให้ได้รับโทษ ตัวอย่างเช่น การแทนที่เนื้อหาที่ดีในหน้าที่มีอันดับสูงด้วยแบบฟอร์มลงทะเบียนและเปลี่ยนการหมดอายุและ/หรือส่วนหัวการควบคุมแคชเพื่อพยายามหลอกเครื่องมือค้นหาให้รักษาเวอร์ชันระดับสูงที่มีเนื้อหาที่ดีจะไม่ทำงาน
Googlebot อาจดาวน์โหลดเนื้อหาเป็นระยะโดยไม่คำนึงถึงการหมดอายุและส่วนหัวของการควบคุมแคช เพื่อยืนยันว่าเนื้อหาไม่มีการเปลี่ยนแปลงจริงๆ
คุณสามารถตรวจสอบสถานะของส่วนหัวการตอบกลับของเซิร์ฟเวอร์โดยใช้เครื่องมือ SEO ฟรีของเรา
หากต้องการอ้างอิง Google:
“หน้าดอร์เวย์มักจะเป็นชุดเพจคุณภาพต่ำขนาดใหญ่ ซึ่งแต่ละหน้าได้รับการปรับให้เหมาะสมสำหรับคำหลักหรือวลีเฉพาะ ในหลายกรณี หน้าดอร์เวย์ถูกเขียนขึ้นเพื่อจัดอันดับสำหรับวลีใดวลีหนึ่ง จากนั้นจึงนำผู้ใช้ไปยังปลายทางเดียว”
ที่มา: http://www.google.com/support/webmasters/bin/answer.py?hl=th&answer=66355
Matt Cutts พูดจาโผงผางเกี่ยวกับหน้า Doorway ที่นี่
เครื่องมือทดสอบหลายตัวแปร เช่น เครื่องมือเพิ่มประสิทธิภาพเว็บไซต์ของ Google ช่วยให้คุณสามารถปรับปรุงประสิทธิภาพของเว็บไซต์ของคุณโดยการทดสอบการเปลี่ยนแปลงเนื้อหาและการออกแบบเว็บไซต์ของคุณเพื่อปรับปรุงอัตราการแปลง (หรือการวัดที่สำคัญอื่นๆ)
การทดสอบหลายตัวแปรเป็นการใช้การปิดบังอย่างมีจริยธรรม อย่างไรก็ตาม Google ระบุว่า:
“หากเราพบไซต์ที่ใช้ชุดค่าผสมที่ไม่ใช่ต้นฉบับชุดเดียวที่ 100% เป็นเวลาหลายเดือน หรือหากหน้าเดิมของไซต์เต็มไปด้วยคำหลักที่ไม่เกี่ยวข้องกับชุดค่าผสมที่แสดงต่อผู้เข้าชม เราอาจลบไซต์นั้น จากดัชนีของเรา”
ไม่จำเป็นต้องปิดบังสแปมด้วยตัวเอง แต่เป็นเทคนิคหลอกล่อและสลับซึ่ง 301 เปลี่ยนเส้นทางโดเมนที่ไม่เกี่ยวข้อง (โดยปกติคือโดเมนสำหรับการขายหรือหมดอายุแล้ว แต่ยังคงมี PageRank หรือลิงก์ภายนอกที่สำคัญ) ไปยังโดเมนที่เป็นอันตรายหรือไม่เกี่ยวข้องเกี่ยวกับหัวข้อที่แตกต่างไปจากเดิมอย่างสิ้นเชิง .https://www.youtube.com/watch?v=70LR8H8pn1Mhttps://searchengineland.com/do-links-from-expired-domains-count-with-google-17811
สิ่งนี้ทำให้ผู้ใช้เข้าใจผิด เนื่องจากพวกเขาอาจคาดหวังเว็บไซต์อื่น และอาจส่ง anchor text ที่ไม่เกี่ยวข้องไปยังโดเมนของคุณ
นอกจากนี้ อย่าคาดหวังเครดิตสำหรับการจดทะเบียนโดเมนที่หมดอายุด้วยลิงก์ภายนอกโดยหวังว่าจะได้รับการประชาสัมพันธ์หรือลิงก์
ในอดีต เสิร์ชเอ็นจิ้นพยายามตีความและจัดทำดัชนีเนื้อหา Flash อย่างมีประสิทธิภาพ แต่ก็ดีขึ้นตลอดเวลา
เว็บมาสเตอร์ต้องพิจารณาผู้ใช้และเครื่องมือค้นหาที่ไม่มีเบราว์เซอร์ที่เปิดใช้งาน Flash และสร้างเว็บไซต์ HTML มาตรฐาน "เบื้องหลัง" สำหรับเครื่องมือค้นหา ใช้แท็ก <noscript>, JavaScript หรือวิธีการที่คล้ายกันเพื่อจัดทำดัชนีเนื้อหาที่เป็นข้อความ ขออภัย เครื่องมือค้นหาอาจระบุสิ่งนี้โดยไม่ได้ตั้งใจว่าเป็นการปิดบัง หากเนื้อหาที่จัดทำดัชนีจากเนื้อหา Flash ไม่ตรงกับเนื้อหาที่เป็นข้อความ
การสร้างเว็บไซต์ทั้งหมดใน Flash ยังไม่ใช่ความคิดที่ดีจากมุมมองของ SEO อย่างไรก็ตาม หากคุณมีเนื้อหา Flash ให้พิจารณาใช้ SWFObject หรือเทคนิคที่คล้ายคลึงกันเพื่อให้แน่ใจว่า Flash จะลดระดับลงอย่างสวยงามสำหรับทั้งผู้ใช้และเครื่องมือค้นหา
Popover div และโฆษณาเพียงอย่างเดียวไม่ได้ปิดบัง เมื่อไม่สามารถปิดโฆษณาคั่นระหว่างหน้าหรือ div แบบป๊อปโอเวอร์ได้ (เช่น เว้นแต่ผู้ใช้จะลงทะเบียน) คุณอาจนำเสนอเนื้อหาต่อเครื่องมือค้นหาและแบบฟอร์มลงทะเบียนแก่ผู้ใช้ของคุณ
ตรวจสอบให้แน่ใจว่าผู้ใช้สามารถปิดหรือข้ามโฆษณาคั่นระหว่างหน้า ป๊อปอัป ป๊อปอัป div ที่วางซ้อน ไลท์บ็อกซ์ และอื่นๆ และดูเนื้อหาที่มีได้
AJAX (Asynchronous JavaScript And XML) เป็นรูปแบบของ JavaScript ที่ช่วยให้เว็บเพจสามารถดึงเนื้อหาไดนามิกจากเซิร์ฟเวอร์โดยไม่ต้องโหลดหน้าซ้ำ ได้รับความนิยมอย่างมากในช่วงสองสามปีที่ผ่านมาและมัก (มากกว่า) ที่ใช้ในแอปพลิเคชัน Web 2.0 จำนวนมาก
สามารถใช้ AJAX ในลักษณะหลอกลวงเพื่อนำเสนอเนื้อหาต่างๆ ต่อผู้ใช้และเครื่องมือค้นหา - อย่าใช้
นอกจากนี้ อีกด้านหนึ่งของเหรียญ ในแนวทาง "การปิดบังเชิงลบ" ผู้ใช้อาจเห็นเนื้อหา แต่เสิร์ชเอ็นจิ้นจะไม่เห็น เนื่องจากไม่สามารถดำเนินการเรียก JavaScript ที่ดึงเนื้อหาไดนามิกจากเซิร์ฟเวอร์ได้ สิ่งที่ต้องตรวจสอบ
เทคนิคหลายอย่างที่อธิบายไว้ในบทความนี้อาจนำมารวมกัน สับเป็นชิ้น หรือดัดแปลงเพื่อพยายามโกงเครื่องมือค้นหาโดยเปล่าประโยชน์
ตัวอย่างหนึ่งคือการรวม JavaScript และคุกกี้เพื่อปิดบังเนื้อหา หากฟังก์ชัน JavaScript ไม่สามารถเขียนหรืออ่านคุกกี้ได้ (เช่น สไปเดอร์ของเครื่องมือค้นหา) ให้แสดงเนื้อหาที่แตกต่างจากผู้ใช้มาตรฐานที่เปิดใช้งานคุกกี้ นอกจากนี้ยังมีตัวอย่างสคริปต์ JQuery บางส่วนที่จะช่วยให้บุคคลที่ไร้ยางอายทำสิ่งนี้ได้
การปิดบังลิงก์หมายถึงการส่งผู้ใช้ไปยัง URL ที่แตกต่างจากที่คลิกโดยใช้การเปลี่ยนเส้นทางในบางรูปแบบ การเปลี่ยนเส้นทางสามารถใช้ได้ทั้งดีและไม่ดีดังที่เราได้เห็นข้างต้น การปิดบังลิงก์มักใช้เพื่อวัตถุประสงค์ในการวิเคราะห์หรือบำรุงรักษา มีเหตุผลหลายประการในการทำเช่นนี้ เช่น
- เพื่อรักษาลิงก์ไปยังพันธมิตรภายใน PDF หรือแอปพลิเคชันที่รวบรวมไว้ การใช้ vanity URL ที่คล้ายกันและเปลี่ยนเส้นทางด้านบนเพื่อให้แน่ใจว่าหากพันธมิตรอัปเดตโครงสร้าง URL คุณสามารถอัปเดตการเปลี่ยนเส้นทางบน vanity URL ได้ และทำให้แน่ใจว่าลิงก์ใน eBook และเนื้อหาที่รวบรวมไว้ยังคงใช้งานได้
- Vanity URL ที่ใช้ในสื่อการตลาดและโฆษณาซึ่งจำง่ายกว่า URL เวอร์ชันมาตรฐาน
แน่นอนว่าสิ่งนี้อาจถูกใช้เพื่อหลอกลวงและหลอกลวง เช่น การปลอมลิงก์พันธมิตร (เช่น แทนที่ลิงก์ด้วย http://mysite.com/vanity-url และเปลี่ยนเส้นทางไปที่ http://affiliate.com/offer.html ?=รหัสพันธมิตรของฉัน)
การแก้ไข anchor text หรือแอตทริบิวต์ของลิงก์ด้วย JavaScript หรือกลไกที่คล้ายกันเพื่อหลอกลวงหรือหลอกลวงผู้ใช้ นี่คือรูปแบบหนึ่งของการปิดบังหน้าเว็บจริงที่ปรับเปลี่ยนเพียงส่วนเล็กๆ ของเพจเพื่อหลอกลวงผู้ใช้
- จี้เหตุการณ์ onClick เพื่อส่งผู้ใช้ไปยัง URL อื่นไปยังเครื่องมือค้นหา
- การเพิ่มแอตทริบิวต์ rel=”nofollow” ให้กับลิงก์ที่แสดงไปยังเครื่องมือค้นหาและลบออกจากรหัสที่แสดงต่อผู้ใช้
- การแก้ไข anchor text ของลิงก์ให้รวมคีย์เวิร์ดไว้ใน anchor text ที่ส่งไปยังเครื่องมือค้นหาและแสดงสิ่งที่แตกต่างไปจากผู้ใช้
หลีกเลี่ยงการจี้ลิงก์เพื่อหลอกลวงผู้ใช้ เนื่องจากอาจส่งผลให้เครื่องมือค้นหาได้รับโทษหรือถูกแบนเว็บไซต์ของคุณ
มีรูปแบบทางจริยธรรมของเทคนิคนี้เพื่อให้แน่ใจว่าทั้งผู้ใช้และเครื่องมือค้นหาสามารถดูเนื้อหา AJAX ของคุณโดยใช้ HiJAX ตามที่แนะนำในบล็อกของ Google
การซ่อนข้อความขัดต่อ TOS และหลักเกณฑ์สำหรับผู้ดูแลเว็บของ Google เป็นรูปแบบการปิดบังเนื่องจากเครื่องมือค้นหาสามารถเห็นเนื้อหาที่เป็นข้อความ แต่ผู้ใช้ไม่สามารถทำได้ หลีกเลี่ยงข้อความที่ซ่อนอยู่ประเภทต่อไปนี้:
- ข้อความบนพื้นหลังที่มองไม่เห็น (เช่น สีเทาเข้มบนพื้นดำ)
- การตั้งค่าขนาดตัวอักษรเป็น0
- การจัดรูปแบบข้อความ anchor text ที่มีรูปแบบสมบูรณ์ของคีย์เวิร์ด เช่น ข้อความเนื้อหามาตรฐาน โดยที่ผู้ใช้จะไม่ทราบว่าเป็นลิงก์
- Cascading Style Sheets (CSS) แสดง:ไม่มี
- ข้อความหลังภาพ. มักเป็นหัวข้อที่ยุ่งยากและมักเปิดให้อภิปรายในหมู่ SEO หากข้อความที่อยู่ด้านหลังภาพเป็นการนำเสนอภาพที่ถูกต้องและยุติธรรม (เช่น ส่วนหัวที่มีฟอนต์แบบกำหนดเอง) คุณ “น่าจะใช้ได้” ในการอ้างคำพูดของ Matt Cutts ทางออกที่ดีที่สุดจะขึ้นอยู่กับสถานการณ์เฉพาะของคุณ อย่างไรก็ตาม ตรวจสอบแหล่งข้อมูลเหล่านี้เพื่อดูคำแนะนำ: W3C: การใช้ CSS เพื่อแทนที่ข้อความด้วยรูปภาพ , Farner Image Replacement (FIR) , Scalable Inman Flash Replacement (sIFR) (โปรดทราบว่าข้อความที่แทนที่ sIFR อาจ ไม่ปรากฏใน Google Preview ณ เดือนธันวาคม 2010)
หากปริมาณการใช้เครื่องมือค้นหามีความสำคัญต่อคุณ ตรวจสอบให้แน่ใจว่าคุณได้พิจารณาสิ่งต่อไปนี้เกี่ยวกับการปิดบัง:
- ตรวจสอบให้แน่ใจว่าคุณคุ้นเคยกับรูปแบบการปิดบังด้านบนที่เห็นได้ชัดและไม่ชัดเจนนัก และตระหนักดีถึงวิธีการใช้สิ่งเหล่านี้บนไซต์ของคุณเพื่อหลีกเลี่ยงบทลงโทษที่อาจเกิดขึ้น
- หากคุณกำลังใช้รูปแบบการปิดบังบางรูปแบบ ตรวจสอบให้แน่ใจว่าสิ่งนี้ได้รับการตรวจสอบอย่างเหมาะสมจากมุมมองของ SEO เพื่อหลีกเลี่ยงบทลงโทษที่อาจเกิดขึ้น