Inteligência Artificial: questões legais no Reino Unido

Publicados: 2020-07-16

O Reino Unido é um dos líderes europeus em inteligência artificial, particularmente no setor de saúde. De acordo com o McKinsey Global Institute, a IA pode impulsionar a economia do Reino Unido em 22% em 10 anos.

Se você está desenvolvendo uma startup baseada em IA ou qualquer tipo de produto baseado em IA no Reino Unido, está em uma posição melhor do que o resto da Europa. O país é particularmente aberto à inovação e o governo apoia fortemente muitas iniciativas. Por exemplo, o Alan Turing Institute serve como entidade nacional para inteligência artificial e ciência de dados, enquanto a Câmara dos Lordes também tem seu próprio comitê focado em IA.

Essa cultura orientada por dados torna o Reino Unido um importante centro de inteligência artificial. Um relatório da Codec sugere que a cada semana, uma nova startup de IA seja fundada no país. Antes de começar, porém, há algo que você deve considerar primeiro: requisitos legais e questões legais mais comuns relacionadas à IA .

Como a IA é um campo novo e em desenvolvimento, possui requisitos ligeiramente diferentes de outros setores mais tradicionais. Se você está procurando aconselhamento jurídico, estamos aqui para ajudá-lo a começar.

Aqui estão algumas das questões legais de IA mais importantes a serem consideradas:

A definição legal de IA

Em primeiro lugar, como você define inteligência artificial?

Aqui é onde a questão começa. Alguns legisladores seguem essa heurística e definem a IA como uma combinação de software e dados . Parece bastante simples, mas é preciso ressaltar que estamos lidando com softwares mais sofisticados e volumes de dados maiores do que nunca.

Outros profissionais do direito, como Jonas Schuett, da Goethe University, sugerem que é melhor evitar o termo inteligência artificial . Ele diz que não há uma definição de IA que atenda aos requisitos das definições legais . Em vez disso, ele sugere focar em:

  • certos projetos
  • casos de uso
  • capacidades com possíveis riscos em mente

Essas sugestões são dirigidas principalmente aos formuladores de políticas, mas também podem ser salvas como uma diretriz para você. Para acertar, é melhor se concentrar no caso muito específico do uso da IA ​​e nos riscos que a acompanham.

ícone de IA

Aprimore seu produto com soluções baseadas em IA

Saber mais

Definição de IA no Reino Unido

Quando se trata da definição legal de inteligência artificial , veja como o governo do Reino Unido a descreve:

[…] tecnologias com a capacidade de realizar tarefas que, de outra forma, exigiriam inteligência humana, como percepção visual, reconhecimento de fala e tradução de idiomas.

O parlamento britânico acrescentou recentemente outro aspecto a esta definição. É importante notar que os sistemas de IA têm a capacidade de aprender ou se adaptar a novas experiências ou estímulos.

As principais questões legais da IA

Processamento de grandes quantidades de dados

Para funcionar corretamente, os algoritmos de inteligência artificial precisam de muitos dados. E aí vem outra questão legal da IA: quem possui os dados e quem cuida da segurança? Fica ainda mais complicado com informações confidenciais em setores como bancos ou saúde.

Existem dois principais atos de segurança de dados atualmente em vigor no Reino Unido:

Lei de Proteção de Dados e GDPR (Regulamento Geral de Proteção de Dados)

Em 2018, a Lei de Proteção de Dados substituiu um regulamento de 1998. Juntamente com o GDPR, molda o processamento de dados pessoais no Reino Unido.

Como você provavelmente já sabe, mudou completamente a forma como lidamos com dados pessoais na União Europeia. Mesmo apesar de todas as mudanças que acompanham o Brexit, as empresas do Reino Unido ainda precisam cumprir o GDPR, pois geralmente processam os dados de outros clientes europeus.

Algumas das implicações relacionadas à IA que acompanham o GDPR incluem:

  • Princípio de equidade – Este objetivo afirma que uma empresa pode processar os dados do titular de acordo com seus interesses. Dados de entrada tendenciosos são um grande problema na IA – abordaremos isso mais tarde com mais detalhes, juntamente com exemplos práticos.
  • Limitação de finalidade – O usuário deve ter acesso às informações sobre o motivo pelo qual você coleta seus dados. Como a IA exige grandes volumes de informações, você precisa informar ao seu público o que você fará com ela.
  • Transparência e acesso às informações – Seus clientes têm o direito de acessar seus dados e pedir para removê-los mediante solicitação. Isso é conhecido como o direito ao esquecimento .

A história do Royal Free NHS Foundation Trust e DeepMind, unidade de IA do Google, é um exemplo interessante aqui. Sabe-se que a colaboração entre essas duas partes violou as leis de proteção de dados do Reino Unido . A ICO, autoridade de privacidade de dados do Reino Unido, descobriu que os pacientes não foram informados de que seus dados serão usados ​​para o desenvolvimento de uma solução de IA.

Anonimização de dados

Para usar e compartilhar grandes volumes de dados sem infringir a lei, primeiro você precisa anonimizá-los. Dados anonimizados é um termo para descrever informações que não são capazes de vincular a um indivíduo vivo. Quando os dados são anonimizados, a Lei Britânica de Proteção de Dados não se aplica mais.

O processo de anonimização requer a eliminação de:

  • identificadores diretos , como nome, e-mail ou número de telefone
  • identificadores indiretos que podem revelar o indivíduo por referência cruzada, como local de trabalho e local

Essa prática ajuda a proteger a privacidade dos usuários, mas remover os identificadores é apenas o começo da jornada:

Problemas éticos e preconceitos

Embora o nome inteligência artificial possa sugerir o contrário, essa tecnologia não é imune a preconceitos humanos. Em seu livro Technically Wrong , Sara Wachter-Boettcher descreve uma série de casos em que a IA dá, bem, terrivelmente errada.

O autor prova que, embora a inteligência artificial possa ser bastante autônoma, ainda é baseada em algum tipo de entrada, que não está livre de vieses e nossas suposições iniciais. Por exemplo, ela descreveu o caso do algoritmo do Google Fotos . O objetivo era detectar o que estava na foto, mas ela vinha com uma séria limitação – considerava pessoas de pele branca como padrão. Por causa disso, era provável que marcassem automaticamente os negros como... gorilas. Um dos usuários descobriu que o algoritmo os considerava macacos em todos os álbuns do Google Fotos.

Nesse caso, o problema está nos dados de entrada. A rede neural treinou principalmente em modelos brancos, e é por isso que não captou as diferenças raciais. Mesmo que o algoritmo não fosse explicitamente racista, ele ainda exibe um aparente viés racial.

Casos como esses provam que, em palavras de leigos, a IA é o que fazemos dela. Nós o alimentamos com informações afetadas por nossos próprios preconceitos e limitações. Wachter-Boettcher nomeou uma das seções de seu livro Biased Input, Even More Biased Output . Esta frase curta descreve como a IA pode intensificar possíveis problemas éticos.

Desafios legais

Como mencionamos, a IA é autônoma, mas a questão é: quem é o responsável pelos danos que ela pode causar?

Quando se trata de regulamentos legais do Reino Unido, um sistema automatizado (como um algoritmo de IA) não é um agente perante a lei. A responsabilidade está nas mãos de seus criadores, como as partes interessadas, os operadores, os designers ou os testadores do sistema.

A questão da responsabilidade por danos causados ​​pela IA é um tema quente quando se trata de introduzir novos produtos, como carros autônomos. O Parlamento Europeu publicou um projeto de relatório com recomendações sobre um regime de responsabilidade civil e sua adequação à IA.

O Parlamento sublinhou que nem sempre é possível associar acções específicas a uma contribuição ou concepção humana específica . Por causa disso, eles sugerem que a responsabilidade deve ser baseada no risco e que os implantadores de sistemas de IA devem considerar a realização de um seguro de responsabilidade.

Nos próximos anos, veremos como diferentes jurisdições responderão aos produtos de IA para garantir uma compensação adequada por qualquer dano.

Questões jurídicas da inteligência artificial: considerações finais

Esperamos que este resumo tenha ajudado você a aprender mais sobre o status legal e os problemas legais de IA mais comuns no Reino Unido .

Na Miquido, trabalhamos com anos de experiência na criação de soluções de IA para o mercado do Reino Unido. Se você quiser discutir uma solução baseada em IA que atenda às suas necessidades de negócios ou simplesmente fazer uma pergunta, não hesite em nos contatar!

Um agradecimento especial a WKB – Wiercinsi, Kwiecinski, Baehr por suas dicas e truques legais, ajudando-nos a escrever este artigo!