ปัญญาประดิษฐ์: ประเด็นทางกฎหมายในสหราชอาณาจักร
เผยแพร่แล้ว: 2020-07-16สหราชอาณาจักรเป็นหนึ่งในผู้นำด้านปัญญาประดิษฐ์ของยุโรป โดยเฉพาะอย่างยิ่งในภาคการดูแลสุขภาพ จากข้อมูลของ McKinsey Global Institute AI สามารถกระตุ้นเศรษฐกิจของสหราชอาณาจักรได้ถึง 22% ภายใน 10 ปี
หากคุณกำลังพัฒนาสตาร์ทอัพที่ใช้ AI หรือผลิตภัณฑ์ที่ใช้ AI ในสหราชอาณาจักร คุณอยู่ในตำแหน่งที่ดีกว่าส่วนที่เหลือของยุโรป ประเทศ เปิดรับนวัตกรรม โดยเฉพาะอย่างยิ่ง และรัฐบาลสนับสนุนโครงการริเริ่มมากมาย ตัวอย่างเช่น สถาบัน Alan Turing ทำหน้าที่เป็นหน่วยงานระดับชาติสำหรับปัญญาประดิษฐ์และวิทยาศาสตร์ข้อมูล ในขณะที่สภาขุนนางก็มีคณะกรรมการที่มุ่งเน้นด้าน AI ด้วยเช่นกัน
วัฒนธรรมที่ขับเคลื่อนด้วยข้อมูลนี้ทำให้สหราชอาณาจักรเป็นศูนย์กลางปัญญาประดิษฐ์ที่สำคัญ รายงานโดย Coadec ชี้ให้เห็นว่าทุกสัปดาห์มีการก่อตั้ง AI ขึ้นใหม่ในประเทศ ก่อนที่คุณจะเริ่มดำเนินการ มีบางสิ่งที่คุณควรพิจารณาก่อน: ข้อกำหนดทางกฎหมายและประเด็นทางกฎหมายที่เกี่ยวข้องกับ AI ที่พบบ่อยที่สุด
เนื่องจาก AI เป็นสาขาใหม่และกำลังพัฒนา จึงมีข้อกำหนดที่แตกต่างกันเล็กน้อยจากอุตสาหกรรมอื่นๆ ที่เป็นแบบดั้งเดิมมากกว่า หากคุณกำลังมองหาคำแนะนำด้านกฎหมาย เราพร้อมช่วยคุณเริ่มต้น
ต่อไปนี้คือประเด็นทางกฎหมาย AI ที่สำคัญที่สุดที่ควรพิจารณา:
คำจำกัดความทางกฎหมายของ AI
ก่อนอื่นคุณจะกำหนดปัญญาประดิษฐ์ได้อย่างไร?
นี่คือจุดเริ่มต้นของปัญหา ผู้ร่างกฎหมายบางคนยึดติดกับฮิวริสติกนี้และให้คำจำกัดความว่า AI เป็นการ ผสมผสานระหว่างซอฟต์แวร์และข้อมูล ฟังดูค่อนข้างง่าย แต่ต้องชี้ให้เห็นว่าเรากำลังจัดการกับซอฟต์แวร์ที่มีความซับซ้อนมากขึ้นและปริมาณข้อมูลที่ใหญ่ขึ้นกว่าที่เคยเป็นมา
ผู้เชี่ยวชาญด้านกฎหมายอื่นๆ เช่น Jonas Schuett จากมหาวิทยาลัยเกอเธ่แนะนำว่า เป็นการดีกว่าที่จะหลีกเลี่ยงคำว่า ปัญญาประดิษฐ์ เขาบอกว่า ไม่มีคำจำกัดความของ AI ที่ตรงตามข้อกำหนดสำหรับคำจำกัดความทางกฎหมาย แต่เขาแนะนำให้มุ่งเน้นไปที่:
- การออกแบบบางอย่าง
- กรณีการใช้งาน
- ความสามารถโดยคำนึงถึงความเสี่ยงที่อาจเกิดขึ้น
คำแนะนำเหล่านี้ส่วนใหญ่ส่งถึงผู้กำหนดนโยบาย แต่ก็สามารถบันทึกเป็นแนวทางสำหรับตัวคุณเองได้เช่นกัน เพื่อให้ถูกต้อง วิธีที่ดีที่สุดคือมุ่งเน้นไปที่กรณีเฉพาะของการใช้ AI และความเสี่ยงที่มาพร้อมกับมัน
ปรับปรุงผลิตภัณฑ์ของคุณด้วยโซลูชันที่ใช้ AI
เรียนรู้เพิ่มเติมคำจำกัดความของ AI ในสหราชอาณาจักร
เมื่อพูดถึง คำจำกัดความทางกฎหมาย ของปัญญาประดิษฐ์ รัฐบาลสหราชอาณาจักรอธิบายว่า:
[…] เทคโนโลยีที่มีความสามารถในการปฏิบัติงานที่อาจต้องใช้สติปัญญาของมนุษย์ เช่น การรับรู้ภาพ การรู้จำคำพูด และการแปลภาษา
รัฐสภาอังกฤษได้เพิ่มแง่มุมอื่นให้กับคำจำกัดความนี้เมื่อเร็วๆ นี้ สิ่งสำคัญคือต้องสังเกตว่าระบบ AI มี ความสามารถในการเรียนรู้หรือปรับให้เข้ากับประสบการณ์หรือสิ่งเร้าใหม่ๆ
ประเด็นทางกฎหมายที่สำคัญของ AI
กำลังประมวลผลข้อมูลจำนวนมาก
เพื่อให้ทำงานได้อย่างถูกต้อง อัลกอริธึมปัญญาประดิษฐ์ต้องการข้อมูลจำนวนมาก และประเด็นทางกฎหมายของ AI อีกเรื่องหนึ่งคือ ใครเป็นเจ้าของข้อมูลและใครดูแลความปลอดภัย ข้อมูลที่มีความละเอียดอ่อนในภาคส่วนต่างๆ เช่น การธนาคารหรือการดูแลสุขภาพจะซับซ้อนยิ่งขึ้น
ปัจจุบันมีมาตรการรักษาความปลอดภัยข้อมูลหลักสองประการที่มีผลบังคับใช้ในสหราชอาณาจักร:
พระราชบัญญัติคุ้มครองข้อมูลและ GDPR (กฎการคุ้มครองข้อมูลทั่วไป)
ในปี 2018 พระราชบัญญัติคุ้มครองข้อมูลได้เข้ามาแทนที่ข้อบังคับจากปี 1998 ร่วมกับ GDPR ได้กำหนดรูปแบบการประมวลผลข้อมูลส่วนบุคคลในสหราชอาณาจักร
อย่างที่คุณอาจทราบอยู่แล้ว วิธีนี้ได้เปลี่ยนวิธีที่เราจัดการกับข้อมูลส่วนบุคคลในสหภาพยุโรปโดยสิ้นเชิง แม้ว่า Brexit จะมีการเปลี่ยนแปลงทั้งหมด แต่ธุรกิจในสหราชอาณาจักรยังคงต้องปฏิบัติตาม GDPR เนื่องจากพวกเขามักจะประมวลผลข้อมูลของลูกค้าในยุโรปรายอื่นๆ

นัยที่เกี่ยวข้องกับ AI ที่มาพร้อมกับ GDPR ได้แก่:
- หลักการความเป็นธรรม – วัตถุประสงค์นี้อ้างว่าธุรกิจสามารถประมวลผลข้อมูลของเรื่องตามความสนใจของพวกเขาได้ ข้อมูลอินพุตแบบเอนเอียงเป็นปัญหาใหญ่ใน AI – เราจะพูดถึงรายละเอียดเพิ่มเติมในภายหลังพร้อมกับตัวอย่างเชิงปฏิบัติ
- ข้อจำกัดวัตถุประสงค์ – ผู้ใช้ต้องมีสิทธิ์เข้าถึงข้อมูลเกี่ยวกับเหตุผลที่คุณรวบรวมข้อมูลของพวกเขา เนื่องจาก AI ต้องการข้อมูลจำนวนมาก คุณจึงต้องแจ้งให้ผู้ชมทราบว่าคุณจะทำอะไรกับมัน
- ความโปร่งใสและการเข้าถึงข้อมูล – ลูกค้าของคุณมีสิทธิ์เข้าถึงข้อมูลของตนและขอให้ลบออกตามคำขอ นี้เรียกว่า สิทธิที่จะถูกลืม
เรื่องราวของ Royal Free NHS Foundation Trust และ DeepMind ซึ่งเป็นหน่วย AI ของ Google เป็นตัวอย่างที่น่าสนใจที่นี่ เป็นที่ทราบกันดีว่าการทำงานร่วมกันระหว่างทั้งสองฝ่ายได้ละเมิดกฎหมายคุ้มครองข้อมูลของสหราช อาณาจักร ICO ซึ่งเป็นหน่วยงานด้านความเป็นส่วนตัวของข้อมูลของสหราชอาณาจักรพบว่าผู้ป่วยไม่ได้รับแจ้งว่าข้อมูลของพวกเขาจะถูกนำไปใช้ในการพัฒนาโซลูชัน AI
การลบข้อมูลระบุตัวตน
ในการใช้และแบ่งปันปริมาณข้อมูลขนาดใหญ่โดยไม่ผิดกฎหมาย คุณต้องปิดบังข้อมูลก่อน ข้อมูลที่ไม่ระบุชื่อ เป็นคำที่ใช้อธิบายข้อมูลที่เราไม่สามารถเชื่อมโยงกับบุคคลที่มีชีวิตอยู่ได้ เมื่อข้อมูลไม่เปิดเผยชื่อ กฎหมายคุ้มครองข้อมูลของอังกฤษจะไม่มีผลบังคับใช้อีกต่อไป
กระบวนการของการไม่เปิดเผยชื่อต้องมีการกำจัด:
- ตัวระบุโดยตรง เช่น ชื่อ อีเมล หรือหมายเลขโทรศัพท์
- ตัวระบุทางอ้อม ที่สามารถเปิดเผยบุคคลโดยการอ้างอิงโยง เช่น สถานที่ทำงานและที่ตั้ง
แนวทางปฏิบัตินี้ช่วยปกป้องความเป็นส่วนตัวของผู้ใช้ แต่การลบตัวระบุเป็นเพียงจุดเริ่มต้นของการเดินทาง:
ประเด็นด้านจริยธรรมและอคติ
แม้ว่าชื่อ ปัญญาประดิษฐ์ อาจแนะนำเป็นอย่างอื่น แต่เทคโนโลยีนี้ไม่มีภูมิคุ้มกันต่ออคติที่เหมือนมนุษย์ ในหนังสือของเธอ ผิดทางเทคนิค Sara Wachter-Boettcher อธิบายกรณีต่างๆ ที่ AI ผิดพลาดอย่างมหันต์
ผู้เขียนพิสูจน์ว่าในขณะที่ปัญญาประดิษฐ์สามารถทำงานได้อย่างอิสระ แต่ก็ยังขึ้นอยู่กับข้อมูลบางอย่างซึ่งไม่ได้ปราศจากอคติและสมมติฐานเบื้องต้นของเรา ตัวอย่างเช่น เธออธิบายกรณีของ อัลกอริทึมของ Google Photos เป้าหมายคือการตรวจจับสิ่งที่อยู่ในภาพ แต่ก็มีข้อจำกัดที่ร้ายแรงอย่างหนึ่ง ซึ่งถือว่าคนผิวขาวเป็นค่าเริ่มต้น ด้วยเหตุนี้ จึงมีแนวโน้มที่จะแท็กคนผิวดำโดยอัตโนมัติว่าเป็น… กอริลล่า ผู้ใช้รายหนึ่งพบว่าอัลกอริธึมถือว่าพวกมันเป็นลิงในอัลบั้ม Google Photos ทั้งหมด
ในกรณีนี้ ปัญหาอยู่ที่ข้อมูลที่ป้อนเข้า โครงข่ายประสาทเทียมได้รับการฝึกฝนเกี่ยวกับโมเดลสีขาวเป็นหลัก ซึ่งเป็นสาเหตุที่ทำให้ไม่สังเกตเห็นความแตกต่างทางเชื้อชาติ แม้ว่าอัลกอริธึมจะไม่ได้แบ่งแยกเชื้อชาติอย่างชัดเจน แต่ก็ยังแสดงอคติทางเชื้อชาติที่ชัดเจน
กรณีเช่นนี้พิสูจน์ได้ว่า ในคำพูดของคนธรรมดา AI คือสิ่งที่เราสร้างขึ้น เราป้อนข้อมูลด้วยข้อมูลที่ได้รับผลกระทบจากอคติและข้อจำกัดของเราเอง Wachter-Boettcher ตั้งชื่อหัวข้อหนึ่งในหนังสือของเธอว่า Biased Input, Even More Biased Output ของเธอ ประโยคสั้นๆ นี้อธิบายว่า AI สามารถกระชับประเด็นด้านจริยธรรมที่อาจเกิดขึ้นได้อย่างไร
ความท้าทายทางกฎหมาย
ดังที่เราได้กล่าวไปแล้ว AI เป็นระบบอิสระ แต่คำถามคือ ใครเป็นผู้รับผิดชอบต่อความเสียหายที่อาจเกิดขึ้น
เมื่อพูดถึงข้อบังคับทางกฎหมายของสหราชอาณาจักร ระบบอัตโนมัติ (เช่น อัลกอริธึม AI) ไม่ใช่ตัวแทนที่ต้องเผชิญกับกฎหมาย ความรับผิดชอบอยู่ในมือของผู้สร้าง เช่น ผู้มีส่วนได้ส่วนเสีย ผู้ปฏิบัติงาน นักออกแบบ หรือผู้ทดสอบระบบ
คำถามเกี่ยวกับความรับผิดชอบต่อความเสียหายที่เกิดจาก AI เป็นประเด็นร้อนในการนำเสนอผลิตภัณฑ์ใหม่ๆ เช่น รถยนต์ไร้คนขับ รัฐสภายุโรปได้ออกร่างรายงานพร้อมคำแนะนำเกี่ยวกับระบอบการปกครองความรับผิดทางแพ่งและความเหมาะสมสำหรับ AI
รัฐสภาได้เน้นย้ำว่า เป็นไปไม่ได้เสมอไปที่จะติดตามการกระทำที่เฉพาะเจาะจงกลับไปยังข้อมูลหรือการออกแบบที่เฉพาะเจาะจงของมนุษย์ ด้วยเหตุนี้พวกเขาจึงแนะนำว่าความรับผิดควรขึ้นอยู่กับความเสี่ยงและผู้ปรับใช้ระบบ AI ควรพิจารณาการประกันความรับผิด
ในอีกไม่กี่ปีข้างหน้า เราจะเห็นว่าเขตอำนาจศาลต่างๆ จะตอบสนองต่อผลิตภัณฑ์ AI อย่างไร เพื่อให้แน่ใจว่ามีการชดเชยความเสียหายอย่างเหมาะสม
ปัญหาทางกฎหมายของปัญญาประดิษฐ์: ความคิดสุดท้าย
เราหวังว่าข้อมูลสรุปนี้จะช่วยให้คุณเรียนรู้เพิ่มเติมเกี่ยวกับสถานะทางกฎหมายและ ประเด็นทางกฎหมาย AI ที่พบบ่อยที่สุดในสหราชอาณาจักร
ที่ Miquido เรากำลังทำงานด้วยประสบการณ์หลายปีในการสร้างโซลูชัน AI สำหรับตลาดสหราชอาณาจักร หากคุณต้องการพูดคุยเกี่ยวกับโซลูชันที่ใช้ AI ที่เหมาะกับความต้องการทางธุรกิจของคุณ หรือเพียงแค่ถามคำถาม อย่าลังเลที่จะติดต่อเรา!
ขอขอบคุณเป็นพิเศษสำหรับ WKB – Wiercinsi, Kwiecinski, Baehr สำหรับคำแนะนำและกลเม็ดทางกฎหมายที่ช่วยเราในการเขียนบทความนี้!