Kecerdasan Buatan: masalah hukum di Inggris

Diterbitkan: 2020-07-16

Inggris adalah salah satu pemimpin Eropa dalam kecerdasan buatan, khususnya di sektor perawatan kesehatan. Menurut McKinsey Global Institute, AI dapat meningkatkan ekonomi Inggris sebesar 22% dalam 10 tahun.

Jika Anda mengembangkan startup berbasis AI atau produk bertenaga AI apa pun di Inggris, Anda berada di posisi yang lebih baik daripada negara Eropa lainnya. Negara ini sangat terbuka untuk inovasi , dan pemerintah sangat mendukung banyak inisiatif. Misalnya, Institut Alan Turing berfungsi sebagai entitas nasional untuk kecerdasan buatan dan ilmu data, sementara House of Lords juga memiliki komite yang berfokus pada AI sendiri.

Budaya berbasis data ini menjadikan Inggris sebagai pusat kecerdasan buatan yang signifikan. Sebuah laporan oleh Coadec menunjukkan bahwa setiap minggu, startup AI baru didirikan di negara ini. Namun, sebelum Anda mulai, ada sesuatu yang harus Anda pertimbangkan terlebih dahulu: persyaratan hukum dan masalah hukum terkait AI yang paling umum .

Karena AI adalah bidang baru dan berkembang, ia memiliki persyaratan yang sedikit berbeda dari industri lain yang lebih tradisional. Jika Anda mencari nasihat hukum, kami di sini untuk membantu Anda memulai.

Berikut adalah beberapa masalah hukum AI yang paling penting untuk dipertimbangkan:

Definisi hukum AI

Pertama-tama, bagaimana Anda mendefinisikan kecerdasan buatan?

Di sinilah masalah dimulai. Beberapa anggota parlemen berpegang pada heuristik ini dan mendefinisikan AI sebagai kombinasi perangkat lunak dan data . Kedengarannya cukup sederhana, namun perlu ditunjukkan bahwa kita sedang berhadapan dengan perangkat lunak yang lebih canggih dan volume data yang lebih besar daripada sebelumnya.

Profesional hukum lainnya, seperti Jonas Schuett dari Universitas Goethe menyarankan lebih baik untuk menghindari istilah kecerdasan buatan . Dia mengatakan bahwa tidak ada definisi AI yang memenuhi persyaratan definisi hukum . Sebaliknya, ia menyarankan untuk fokus pada:

  • desain tertentu
  • kasus penggunaan
  • kemampuan dengan kemungkinan risiko dalam pikiran

Saran-saran ini terutama ditujukan kepada para pembuat kebijakan, namun juga dapat disimpan sebagai pedoman bagi Anda sendiri. Untuk melakukannya dengan benar, yang terbaik adalah fokus pada kasus penggunaan AI yang sangat spesifik dan risiko yang menyertainya.

ikon AI

Tingkatkan produk Anda dengan solusi berbasis AI

Belajarlah lagi

Definisi AI di Inggris Raya

Ketika sampai pada definisi hukum dari kecerdasan buatan , berikut adalah bagaimana pemerintah Inggris menggambarkannya:

[…] teknologi dengan kemampuan untuk melakukan tugas-tugas yang membutuhkan kecerdasan manusia, seperti persepsi visual, pengenalan ucapan, dan terjemahan bahasa.

Parlemen Inggris baru-baru ini menambahkan aspek lain pada definisi ini. Penting untuk dicatat bahwa sistem AI memiliki kapasitas untuk belajar atau beradaptasi dengan pengalaman atau rangsangan baru.

Masalah hukum utama AI

Memproses data dalam jumlah besar

Untuk bekerja dengan baik, algoritma kecerdasan buatan membutuhkan banyak data. Dan inilah masalah hukum AI lainnya: siapa yang memiliki data dan siapa yang menjaga keamanan? Itu menjadi lebih rumit dengan informasi sensitif di sektor-sektor seperti perbankan atau perawatan kesehatan.

Ada dua tindakan keamanan data utama yang saat ini berlaku di Inggris:

Undang-Undang Perlindungan Data dan GDPR (Peraturan Perlindungan Data Umum)

Pada tahun 2018, Undang-Undang Perlindungan Data telah menggantikan peraturan dari tahun 1998. Bersama dengan GDPR, undang-undang tersebut membentuk pemrosesan data pribadi di Inggris Raya.

Seperti yang mungkin sudah Anda ketahui, ini telah sepenuhnya mengubah cara kami menangani data pribadi di Uni Eropa. Terlepas dari semua perubahan yang datang dengan Brexit, bisnis Inggris masih harus mematuhi GDPR, karena mereka sering memproses data klien Eropa lainnya.

Beberapa implikasi terkait AI yang menyertai GDPR meliputi:

  • Prinsip kewajaran – Tujuan ini mengklaim bahwa bisnis dapat memproses data subjek sesuai dengan kepentingan mereka. Data masukan yang bias adalah masalah besar dalam AI – kita akan membahas ini nanti secara lebih rinci, bersama dengan contoh langsung.
  • Batasan tujuan – Pengguna harus memiliki akses ke informasi tentang alasan mengapa Anda mengumpulkan data mereka. Karena AI membutuhkan informasi dalam jumlah besar, Anda perlu memberi tahu audiens Anda apa yang akan Anda lakukan dengannya.
  • Transparansi dan akses ke informasi – Pelanggan Anda memiliki hak untuk mengakses data mereka dan meminta untuk menghapusnya berdasarkan permintaan. Ini dikenal sebagai hak untuk dilupakan .

Kisah Royal Free NHS Foundation Trust dan DeepMind, unit AI Google, menjadi contoh menarik di sini. Kolaborasi kedua pihak ini diketahui telah melanggar undang-undang perlindungan data Inggris . ICO, otoritas privasi data Inggris, menemukan bahwa pasien tidak diberitahu bahwa data mereka akan digunakan untuk pengembangan solusi AI.

Anonimisasi data

Untuk menggunakan dan berbagi volume data yang besar tanpa melanggar hukum, Anda harus menganonimkannya terlebih dahulu. Data anonim adalah istilah untuk menggambarkan informasi yang tidak dapat dihubungkan dengan individu yang masih hidup. Saat data dianonimkan, Undang-Undang Perlindungan Data Inggris tidak berlaku lagi.

Proses anonimisasi membutuhkan penghapusan:

  • pengenal langsung , seperti nama, email, atau nomor telepon
  • pengidentifikasi tidak langsung yang dapat mengungkapkan individu dengan referensi silang, seperti tempat kerja dan lokasi

Praktik ini membantu melindungi privasi pengguna, namun menghapus pengidentifikasi hanyalah awal dari perjalanan:

Masalah etika dan bias

Meskipun nama kecerdasan buatan mungkin menyarankan sebaliknya, teknologi ini tidak kebal terhadap bias seperti manusia. Dalam bukunya Technically Wrong , Sara Wachter-Boettcher menjelaskan berbagai kasus di mana AI berjalan, yah, sangat salah.

Penulis membuktikan bahwa sementara kecerdasan buatan bisa sangat otonom, itu masih didasarkan pada beberapa jenis masukan, yang tidak bebas dari bias dan asumsi awal kami. Misalnya, dia menggambarkan kasus algoritme Google Foto . Tujuannya adalah untuk mendeteksi apa yang ada dalam gambar, namun itu datang dengan satu batasan serius – itu menganggap orang berkulit putih sebagai default. Karena itu, kemungkinan besar akan secara otomatis menandai orang kulit hitam sebagai … gorila. Salah satu pengguna telah menemukan bahwa algoritme menganggap mereka sebagai kera di semua album Foto Google.

Dalam hal ini, masalahnya terletak pada input data. Jaringan saraf dilatih terutama pada model kulit putih, itulah sebabnya ia tidak menangkap perbedaan ras. Meskipun algoritme tersebut tidak secara eksplisit rasis, ia masih menampilkan bias rasial yang nyata.

Kasus seperti ini membuktikan bahwa, dalam bahasa awam, AI adalah apa yang kami buat. Kami memberinya informasi yang dipengaruhi oleh bias dan keterbatasan kami sendiri. Wachter-Boettcher menyebutkan salah satu bagian dari bukunya Biased Input, Even More Biased Output . Kalimat singkat ini menjelaskan bagaimana AI dapat mengintensifkan potensi masalah etika.

Tantangan hukum

Seperti yang telah kami sebutkan, AI bersifat otonom, tetapi pertanyaannya adalah: siapa yang bertanggung jawab atas kerusakan yang ditimbulkannya?

Ketika datang ke peraturan hukum Inggris, sistem otomatis (seperti algoritma AI) bukanlah agen di hadapan hukum. Tanggung jawab terletak di tangan penciptanya, seperti pemangku kepentingan, operator, perancang, atau penguji sistem.

Pertanyaan tentang tanggung jawab atas kerusakan yang disebabkan oleh AI adalah topik hangat saat memperkenalkan produk baru, seperti mobil otonom. Parlemen Eropa telah mengeluarkan draf laporan dengan rekomendasi mengenai rezim pertanggungjawaban sipil dan kesesuaiannya untuk AI.

Parlemen telah menggarisbawahi bahwa tidak selalu mungkin untuk melacak tindakan tertentu kembali ke masukan atau desain manusia tertentu . Karena itu, mereka menyarankan pertanggungjawaban harus didasarkan pada risiko dan bahwa penyebar sistem AI harus mempertimbangkan untuk memegang asuransi pertanggungjawaban.

Di tahun-tahun mendatang, kita akan melihat bagaimana yurisdiksi yang berbeda akan merespons produk AI untuk memastikan kompensasi yang tepat dari segala kerusakan.

Masalah hukum kecerdasan buatan: pemikiran terakhir

Kami harap ringkasan ini membantu Anda mempelajari lebih lanjut tentang status hukum dan masalah hukum AI yang paling umum di Inggris Raya .

Di Miquido, kami bekerja dengan pengalaman bertahun-tahun dalam menciptakan solusi AI untuk pasar Inggris. Jika Anda ingin mendiskusikan solusi berbasis AI yang sesuai dengan kebutuhan bisnis Anda, atau sekadar mengajukan pertanyaan, jangan ragu untuk menghubungi kami!

Terima kasih khusus kepada WKB – Wiercinsi, Kwiecinski, Baehr atas tip dan trik hukum mereka, membantu kami menulis artikel ini!