Inteligencia artificial: problemas legales en el Reino Unido
Publicado: 2020-07-16El Reino Unido es uno de los líderes europeos en inteligencia artificial, particularmente en el sector de la salud. Según el McKinsey Global Institute, la IA puede impulsar la economía del Reino Unido en un 22 % en 10 años.
Si está desarrollando una startup basada en IA o cualquier tipo de producto impulsado por IA en el Reino Unido, está en una mejor posición que el resto de Europa. El país está particularmente abierto a la innovación y el gobierno apoya vivamente muchas iniciativas. Por ejemplo, el Instituto Alan Turing sirve como entidad nacional para la inteligencia artificial y la ciencia de datos, mientras que la Cámara de los Lores también tiene su propio comité centrado en la IA.
Esta cultura basada en datos convierte al Reino Unido en un importante centro de inteligencia artificial. Un informe de Coadec sugiere que cada semana se funda una nueva startup de IA en el país. Sin embargo, antes de comenzar, hay algo que debe considerar primero: los requisitos legales y los problemas legales más comunes relacionados con la IA .
Como la IA es un campo nuevo y en desarrollo, tiene requisitos ligeramente diferentes a los de otras industrias más tradicionales. Si está buscando asesoramiento legal, estamos aquí para ayudarlo a comenzar.
Estas son algunas de las cuestiones legales de IA más importantes a tener en cuenta:
La definición legal de IA
En primer lugar, ¿cómo define la inteligencia artificial?
Aquí es donde comienza el problema. Algunos legisladores se apegan a esta heurística y definen la IA como una combinación de software y datos . Suena bastante simple, pero debe señalarse que estamos tratando con un software más sofisticado y volúmenes de datos más grandes que nunca.
Otros profesionales del derecho, como Jonas Schuett de la Universidad Goethe, sugieren que es mejor evitar el término inteligencia artificial . Dice que no existe una definición de IA que cumpla con los requisitos para las definiciones legales . En su lugar, sugiere centrarse en:
- ciertos diseños
- casos de uso
- capacidades teniendo en cuenta los posibles riesgos
Estas sugerencias están dirigidas principalmente a los formuladores de políticas, pero también pueden servir como guía para usted. Para hacerlo bien, es mejor centrarse en el caso muy específico del uso de la IA y los riesgos que conlleva.
Mejore su producto con soluciones basadas en IA
Aprende másDefinición de IA en el Reino Unido
Cuando se trata de la definición legal de inteligencia artificial , así es como la describe el gobierno del Reino Unido:
[…] tecnologías con la capacidad de realizar tareas que de otro modo requerirían inteligencia humana, como la percepción visual, el reconocimiento de voz y la traducción de idiomas.
El parlamento británico ha añadido recientemente otro aspecto a esta definición. Es importante señalar que los sistemas de IA tienen la capacidad de aprender o adaptarse a nuevas experiencias o estímulos.
Las cuestiones jurídicas clave de la IA
Procesamiento de grandes cantidades de datos
Para funcionar correctamente, los algoritmos de inteligencia artificial necesitan una gran cantidad de datos. Y aquí viene otro problema legal de la IA: ¿quién es el propietario de los datos y quién se encarga de la seguridad? Se vuelve aún más complicado con información confidencial en sectores como la banca o la atención médica.
Hay dos leyes principales de seguridad de datos actualmente en vigor en el Reino Unido:
Ley de Protección de Datos y RGPD (Reglamento General de Protección de Datos)
En 2018, la Ley de Protección de Datos reemplazó una regulación de 1998. Junto con el RGPD, da forma al procesamiento de datos personales en el Reino Unido.
Como probablemente ya sepa, ha cambiado por completo la forma en que tratamos los datos personales en la Unión Europea. Incluso a pesar de todos los cambios que vienen con Brexit, las empresas del Reino Unido aún deben cumplir con el RGPD, ya que a menudo procesan los datos de otros clientes europeos.
Algunas de las implicaciones relacionadas con la IA que vienen con GDPR incluyen:
- Principio de equidad : este objetivo afirma que una empresa puede procesar los datos del sujeto de acuerdo con sus intereses. Los datos de entrada sesgados son un gran problema en la IA. Vamos a cubrir esto más adelante con más detalle, junto con ejemplos prácticos.
- Limitación del propósito : el usuario debe tener acceso a la información sobre el motivo por el cual recopila sus datos. Como la IA requiere grandes volúmenes de información, debe informar a su audiencia qué va a hacer con ella.
- Transparencia y acceso a la información : sus clientes tienen derecho a acceder a sus datos y solicitar que se eliminen cuando lo soliciten. Esto se conoce como derecho al olvido .
La historia de Royal Free NHS Foundation Trust y DeepMind, la unidad de inteligencia artificial de Google, es un ejemplo interesante aquí. Se sabe que la colaboración entre estas dos partes violó las leyes de protección de datos del Reino Unido . El ICO, la autoridad de privacidad de datos del Reino Unido, descubrió que los pacientes no fueron informados de que sus datos se utilizarán para el desarrollo de una solución de IA.

Anonimización de datos
Para usar y compartir grandes volúmenes de datos sin infringir la ley, primero debe anonimizarlos. Datos anonimizados es un término para describir información que uno no puede vincular a un individuo vivo. Cuando los datos se anonimizan, la Ley de protección de datos británica ya no se aplica.
El proceso de anonimización requiere deshacerse de:
- identificadores directos , como el nombre, el correo electrónico o el número de teléfono
- identificadores indirectos que podrían revelar a la persona mediante referencias cruzadas, como el lugar de trabajo y la ubicación
Esta práctica ayuda a proteger la privacidad de los usuarios, pero eliminar los identificadores es solo el comienzo del viaje:
Cuestiones éticas y sesgos
Aunque el nombre de inteligencia artificial pueda sugerir lo contrario, esta tecnología no es inmune a los sesgos similares a los humanos. En su libro Technically Wrong , Sara Wachter-Boettcher describe una serie de casos en los que la IA sale terriblemente mal.
El autor demuestra que, si bien la inteligencia artificial puede ser bastante autónoma, todavía se basa en algún tipo de información, que no está libre de prejuicios y de nuestras suposiciones iniciales. Por ejemplo, describió el caso del algoritmo de Google Fotos . El objetivo era detectar lo que hay en la imagen, pero tenía una limitación importante: consideraba por defecto a las personas de piel blanca. Por eso, era probable que etiquetara automáticamente a las personas negras como… gorilas. Uno de los usuarios descubrió que el algoritmo los consideraba simios en todos los álbumes de Google Fotos.
En este caso, el problema radica en los datos de entrada. La red neuronal se entrenó principalmente en modelos blancos, por lo que no captó las diferencias raciales. Aunque el algoritmo no era explícitamente racista, todavía muestra un aparente sesgo racial.
Casos como estos demuestran que, en palabras sencillas, la IA es lo que hacemos. Lo alimentamos con información afectada por nuestros propios sesgos y limitaciones. Wachter-Boettcher nombró una de las secciones de su libro Entrada sesgada, salida aún más sesgada . Esta breve oración describe cómo la IA puede intensificar posibles problemas éticos.
Desafíos legales
Como hemos mencionado, la IA es autónoma, pero la pregunta es: ¿ quién es responsable del daño que puede causar?
Cuando se trata de las regulaciones legales del Reino Unido, un sistema automatizado (como un algoritmo de IA) no es un agente frente a la ley. La responsabilidad está en manos de sus creadores, como los interesados, los operadores, los diseñadores o los probadores del sistema.
La cuestión de la responsabilidad por los daños causados por la IA es un tema candente cuando se trata de introducir nuevos productos, como los coches autónomos. El Parlamento Europeo ha emitido un borrador de informe con recomendaciones sobre un régimen de responsabilidad civil y su idoneidad para la IA.
El Parlamento ha subrayado que no siempre es posible rastrear acciones específicas hasta un aporte o diseño humano específico . Por eso, sugieren que la responsabilidad debe basarse en el riesgo y que los implementadores de sistemas de IA deberían considerar tener un seguro de responsabilidad civil.
En los próximos años, veremos cómo las diferentes jurisdicciones responderán a los productos de IA para garantizar una compensación adecuada por cualquier daño.
Cuestiones legales de la inteligencia artificial: reflexiones finales
Esperamos que este resumen le haya ayudado a obtener más información sobre el estado legal y los problemas legales más comunes de la IA en el Reino Unido .
En Miquido, trabajamos con años de experiencia en la creación de soluciones de IA para el mercado del Reino Unido. Si desea analizar una solución basada en IA que se adapte a sus necesidades comerciales, o simplemente hacer una pregunta, ¡no dude en contactarnos!
¡Un agradecimiento especial a WKB – Wiercinsi, Kwiecinski, Baehr por sus consejos y trucos legales, ayudándonos a escribir este artículo!