ปัญญาประดิษฐ์: ประเด็นทางกฎหมายในสหราชอาณาจักร

เผยแพร่แล้ว: 2020-07-16

สหราชอาณาจักรเป็นหนึ่งในผู้นำด้านปัญญาประดิษฐ์ของยุโรป โดยเฉพาะอย่างยิ่งในภาคการดูแลสุขภาพ จากข้อมูลของ McKinsey Global Institute AI สามารถกระตุ้นเศรษฐกิจของสหราชอาณาจักรได้ถึง 22% ภายใน 10 ปี

หากคุณกำลังพัฒนาสตาร์ทอัพที่ใช้ AI หรือผลิตภัณฑ์ที่ใช้ AI ในสหราชอาณาจักร คุณอยู่ในตำแหน่งที่ดีกว่าส่วนที่เหลือของยุโรป ประเทศ เปิดรับนวัตกรรม โดยเฉพาะอย่างยิ่ง และรัฐบาลสนับสนุนโครงการริเริ่มมากมาย ตัวอย่างเช่น สถาบัน Alan Turing ทำหน้าที่เป็นหน่วยงานระดับชาติสำหรับปัญญาประดิษฐ์และวิทยาศาสตร์ข้อมูล ในขณะที่สภาขุนนางก็มีคณะกรรมการที่มุ่งเน้นด้าน AI ด้วยเช่นกัน

วัฒนธรรมที่ขับเคลื่อนด้วยข้อมูลนี้ทำให้สหราชอาณาจักรเป็นศูนย์กลางปัญญาประดิษฐ์ที่สำคัญ รายงานโดย Coadec ชี้ให้เห็นว่าทุกสัปดาห์มีการก่อตั้ง AI ขึ้นใหม่ในประเทศ ก่อนที่คุณจะเริ่มดำเนินการ มีบางสิ่งที่คุณควรพิจารณาก่อน: ข้อกำหนดทางกฎหมายและประเด็นทางกฎหมายที่เกี่ยวข้องกับ AI ที่พบบ่อยที่สุด

เนื่องจาก AI เป็นสาขาใหม่และกำลังพัฒนา จึงมีข้อกำหนดที่แตกต่างกันเล็กน้อยจากอุตสาหกรรมอื่นๆ ที่เป็นแบบดั้งเดิมมากกว่า หากคุณกำลังมองหาคำแนะนำด้านกฎหมาย เราพร้อมช่วยคุณเริ่มต้น

ต่อไปนี้คือประเด็นทางกฎหมาย AI ที่สำคัญที่สุดที่ควรพิจารณา:

คำจำกัดความทางกฎหมายของ AI

ก่อนอื่นคุณจะกำหนดปัญญาประดิษฐ์ได้อย่างไร?

นี่คือจุดเริ่มต้นของปัญหา ผู้ร่างกฎหมายบางคนยึดติดกับฮิวริสติกนี้และให้คำจำกัดความว่า AI เป็นการ ผสมผสานระหว่างซอฟต์แวร์และข้อมูล ฟังดูค่อนข้างง่าย แต่ต้องชี้ให้เห็นว่าเรากำลังจัดการกับซอฟต์แวร์ที่มีความซับซ้อนมากขึ้นและปริมาณข้อมูลที่ใหญ่ขึ้นกว่าที่เคยเป็นมา

ผู้เชี่ยวชาญด้านกฎหมายอื่นๆ เช่น Jonas Schuett จากมหาวิทยาลัยเกอเธ่แนะนำว่า เป็นการดีกว่าที่จะหลีกเลี่ยงคำว่า ปัญญาประดิษฐ์ เขาบอกว่า ไม่มีคำจำกัดความของ AI ที่ตรงตามข้อกำหนดสำหรับคำจำกัดความทางกฎหมาย แต่เขาแนะนำให้มุ่งเน้นไปที่:

  • การออกแบบบางอย่าง
  • กรณีการใช้งาน
  • ความสามารถโดยคำนึงถึงความเสี่ยงที่อาจเกิดขึ้น

คำแนะนำเหล่านี้ส่วนใหญ่ส่งถึงผู้กำหนดนโยบาย แต่ก็สามารถบันทึกเป็นแนวทางสำหรับตัวคุณเองได้เช่นกัน เพื่อให้ถูกต้อง วิธีที่ดีที่สุดคือมุ่งเน้นไปที่กรณีเฉพาะของการใช้ AI และความเสี่ยงที่มาพร้อมกับมัน

ไอคอน AI

ปรับปรุงผลิตภัณฑ์ของคุณด้วยโซลูชันที่ใช้ AI

เรียนรู้เพิ่มเติม

คำจำกัดความของ AI ในสหราชอาณาจักร

เมื่อพูดถึง คำจำกัดความทางกฎหมาย ของปัญญาประดิษฐ์ รัฐบาลสหราชอาณาจักรอธิบายว่า:

[…] เทคโนโลยีที่มีความสามารถในการปฏิบัติงานที่อาจต้องใช้สติปัญญาของมนุษย์ เช่น การรับรู้ภาพ การรู้จำคำพูด และการแปลภาษา

รัฐสภาอังกฤษได้เพิ่มแง่มุมอื่นให้กับคำจำกัดความนี้เมื่อเร็วๆ นี้ สิ่งสำคัญคือต้องสังเกตว่าระบบ AI มี ความสามารถในการเรียนรู้หรือปรับให้เข้ากับประสบการณ์หรือสิ่งเร้าใหม่ๆ

ประเด็นทางกฎหมายที่สำคัญของ AI

กำลังประมวลผลข้อมูลจำนวนมาก

เพื่อให้ทำงานได้อย่างถูกต้อง อัลกอริธึมปัญญาประดิษฐ์ต้องการข้อมูลจำนวนมาก และประเด็นทางกฎหมายของ AI อีกเรื่องหนึ่งคือ ใครเป็นเจ้าของข้อมูลและใครดูแลความปลอดภัย ข้อมูลที่มีความละเอียดอ่อนในภาคส่วนต่างๆ เช่น การธนาคารหรือการดูแลสุขภาพจะซับซ้อนยิ่งขึ้น

ปัจจุบันมีมาตรการรักษาความปลอดภัยข้อมูลหลักสองประการที่มีผลบังคับใช้ในสหราชอาณาจักร:

พระราชบัญญัติคุ้มครองข้อมูลและ GDPR (กฎการคุ้มครองข้อมูลทั่วไป)

ในปี 2018 พระราชบัญญัติคุ้มครองข้อมูลได้เข้ามาแทนที่ข้อบังคับจากปี 1998 ร่วมกับ GDPR ได้กำหนดรูปแบบการประมวลผลข้อมูลส่วนบุคคลในสหราชอาณาจักร

อย่างที่คุณอาจทราบอยู่แล้ว วิธีนี้ได้เปลี่ยนวิธีที่เราจัดการกับข้อมูลส่วนบุคคลในสหภาพยุโรปโดยสิ้นเชิง แม้ว่า Brexit จะมีการเปลี่ยนแปลงทั้งหมด แต่ธุรกิจในสหราชอาณาจักรยังคงต้องปฏิบัติตาม GDPR เนื่องจากพวกเขามักจะประมวลผลข้อมูลของลูกค้าในยุโรปรายอื่นๆ

นัยที่เกี่ยวข้องกับ AI ที่มาพร้อมกับ GDPR ได้แก่:

  • หลักการความเป็นธรรม – วัตถุประสงค์นี้อ้างว่าธุรกิจสามารถประมวลผลข้อมูลของเรื่องตามความสนใจของพวกเขาได้ ข้อมูลอินพุตแบบเอนเอียงเป็นปัญหาใหญ่ใน AI – เราจะพูดถึงรายละเอียดเพิ่มเติมในภายหลังพร้อมกับตัวอย่างเชิงปฏิบัติ
  • ข้อจำกัดวัตถุประสงค์ – ผู้ใช้ต้องมีสิทธิ์เข้าถึงข้อมูลเกี่ยวกับเหตุผลที่คุณรวบรวมข้อมูลของพวกเขา เนื่องจาก AI ต้องการข้อมูลจำนวนมาก คุณจึงต้องแจ้งให้ผู้ชมทราบว่าคุณจะทำอะไรกับมัน
  • ความโปร่งใสและการเข้าถึงข้อมูล – ลูกค้าของคุณมีสิทธิ์เข้าถึงข้อมูลของตนและขอให้ลบออกตามคำขอ นี้เรียกว่า สิทธิที่จะถูกลืม

เรื่องราวของ Royal Free NHS Foundation Trust และ DeepMind ซึ่งเป็นหน่วย AI ของ Google เป็นตัวอย่างที่น่าสนใจที่นี่ เป็นที่ทราบกันดีว่าการทำงานร่วมกันระหว่างทั้งสองฝ่ายได้ละเมิดกฎหมายคุ้มครองข้อมูลของสหราช อาณาจักร ICO ซึ่งเป็นหน่วยงานด้านความเป็นส่วนตัวของข้อมูลของสหราชอาณาจักรพบว่าผู้ป่วยไม่ได้รับแจ้งว่าข้อมูลของพวกเขาจะถูกนำไปใช้ในการพัฒนาโซลูชัน AI

การลบข้อมูลระบุตัวตน

ในการใช้และแบ่งปันปริมาณข้อมูลขนาดใหญ่โดยไม่ผิดกฎหมาย คุณต้องปิดบังข้อมูลก่อน ข้อมูลที่ไม่ระบุชื่อ เป็นคำที่ใช้อธิบายข้อมูลที่เราไม่สามารถเชื่อมโยงกับบุคคลที่มีชีวิตอยู่ได้ เมื่อข้อมูลไม่เปิดเผยชื่อ กฎหมายคุ้มครองข้อมูลของอังกฤษจะไม่มีผลบังคับใช้อีกต่อไป

กระบวนการของการไม่เปิดเผยชื่อต้องมีการกำจัด:

  • ตัวระบุโดยตรง เช่น ชื่อ อีเมล หรือหมายเลขโทรศัพท์
  • ตัวระบุทางอ้อม ที่สามารถเปิดเผยบุคคลโดยการอ้างอิงโยง เช่น สถานที่ทำงานและที่ตั้ง

แนวทางปฏิบัตินี้ช่วยปกป้องความเป็นส่วนตัวของผู้ใช้ แต่การลบตัวระบุเป็นเพียงจุดเริ่มต้นของการเดินทาง:

ประเด็นด้านจริยธรรมและอคติ

แม้ว่าชื่อ ปัญญาประดิษฐ์ อาจแนะนำเป็นอย่างอื่น แต่เทคโนโลยีนี้ไม่มีภูมิคุ้มกันต่ออคติที่เหมือนมนุษย์ ในหนังสือของเธอ ผิดทางเทคนิค Sara Wachter-Boettcher อธิบายกรณีต่างๆ ที่ AI ผิดพลาดอย่างมหันต์

ผู้เขียนพิสูจน์ว่าในขณะที่ปัญญาประดิษฐ์สามารถทำงานได้อย่างอิสระ แต่ก็ยังขึ้นอยู่กับข้อมูลบางอย่างซึ่งไม่ได้ปราศจากอคติและสมมติฐานเบื้องต้นของเรา ตัวอย่างเช่น เธออธิบายกรณีของ อัลกอริทึมของ Google Photos เป้าหมายคือการตรวจจับสิ่งที่อยู่ในภาพ แต่ก็มีข้อจำกัดที่ร้ายแรงอย่างหนึ่ง ซึ่งถือว่าคนผิวขาวเป็นค่าเริ่มต้น ด้วยเหตุนี้ จึงมีแนวโน้มที่จะแท็กคนผิวดำโดยอัตโนมัติว่าเป็น… กอริลล่า ผู้ใช้รายหนึ่งพบว่าอัลกอริธึมถือว่าพวกมันเป็นลิงในอัลบั้ม Google Photos ทั้งหมด

ในกรณีนี้ ปัญหาอยู่ที่ข้อมูลที่ป้อนเข้า โครงข่ายประสาทเทียมได้รับการฝึกฝนเกี่ยวกับโมเดลสีขาวเป็นหลัก ซึ่งเป็นสาเหตุที่ทำให้ไม่สังเกตเห็นความแตกต่างทางเชื้อชาติ แม้ว่าอัลกอริธึมจะไม่ได้แบ่งแยกเชื้อชาติอย่างชัดเจน แต่ก็ยังแสดงอคติทางเชื้อชาติที่ชัดเจน

กรณีเช่นนี้พิสูจน์ได้ว่า ในคำพูดของคนธรรมดา AI คือสิ่งที่เราสร้างขึ้น เราป้อนข้อมูลด้วยข้อมูลที่ได้รับผลกระทบจากอคติและข้อจำกัดของเราเอง Wachter-Boettcher ตั้งชื่อหัวข้อหนึ่งในหนังสือของเธอว่า Biased Input, Even More Biased Output ของเธอ ประโยคสั้นๆ นี้อธิบายว่า AI สามารถกระชับประเด็นด้านจริยธรรมที่อาจเกิดขึ้นได้อย่างไร

ความท้าทายทางกฎหมาย

ดังที่เราได้กล่าวไปแล้ว AI เป็นระบบอิสระ แต่คำถามคือ ใครเป็นผู้รับผิดชอบต่อความเสียหายที่อาจเกิดขึ้น

เมื่อพูดถึงข้อบังคับทางกฎหมายของสหราชอาณาจักร ระบบอัตโนมัติ (เช่น อัลกอริธึม AI) ไม่ใช่ตัวแทนที่ต้องเผชิญกับกฎหมาย ความรับผิดชอบอยู่ในมือของผู้สร้าง เช่น ผู้มีส่วนได้ส่วนเสีย ผู้ปฏิบัติงาน นักออกแบบ หรือผู้ทดสอบระบบ

คำถามเกี่ยวกับความรับผิดชอบต่อความเสียหายที่เกิดจาก AI เป็นประเด็นร้อนในการนำเสนอผลิตภัณฑ์ใหม่ๆ เช่น รถยนต์ไร้คนขับ รัฐสภายุโรปได้ออกร่างรายงานพร้อมคำแนะนำเกี่ยวกับระบอบการปกครองความรับผิดทางแพ่งและความเหมาะสมสำหรับ AI

รัฐสภาได้เน้นย้ำว่า เป็นไปไม่ได้เสมอไปที่จะติดตามการกระทำที่เฉพาะเจาะจงกลับไปยังข้อมูลหรือการออกแบบที่เฉพาะเจาะจงของมนุษย์ ด้วยเหตุนี้พวกเขาจึงแนะนำว่าความรับผิดควรขึ้นอยู่กับความเสี่ยงและผู้ปรับใช้ระบบ AI ควรพิจารณาการประกันความรับผิด

ในอีกไม่กี่ปีข้างหน้า เราจะเห็นว่าเขตอำนาจศาลต่างๆ จะตอบสนองต่อผลิตภัณฑ์ AI อย่างไร เพื่อให้แน่ใจว่ามีการชดเชยความเสียหายอย่างเหมาะสม

ปัญหาทางกฎหมายของปัญญาประดิษฐ์: ความคิดสุดท้าย

เราหวังว่าข้อมูลสรุปนี้จะช่วยให้คุณเรียนรู้เพิ่มเติมเกี่ยวกับสถานะทางกฎหมายและ ประเด็นทางกฎหมาย AI ที่พบบ่อยที่สุดในสหราชอาณาจักร

ที่ Miquido เรากำลังทำงานด้วยประสบการณ์หลายปีในการสร้างโซลูชัน AI สำหรับตลาดสหราชอาณาจักร หากคุณต้องการพูดคุยเกี่ยวกับโซลูชันที่ใช้ AI ที่เหมาะกับความต้องการทางธุรกิจของคุณ หรือเพียงแค่ถามคำถาม อย่าลังเลที่จะติดต่อเรา!

ขอขอบคุณเป็นพิเศษสำหรับ WKB – Wiercinsi, Kwiecinski, Baehr สำหรับคำแนะนำและกลเม็ดทางกฎหมายที่ช่วยเราในการเขียนบทความนี้!