Ética da inteligência artificial: o caso dos carros autônomos

Publicados: 2022-05-06

Um estudo de caso sobre ética em Inteligência Artificial – os carros autônomos da Welmo.

A Inteligência Artificial, ou simplesmente IA, sempre foi um conceito fascinante (e um pouco assustador). No entanto, não importa como você olhe, não há como negar que a IA desempenha um papel importante em nossas atividades diárias, mesmo que às vezes não percebamos.

Quando pensamos nisso, pensamos em robôs e carros autônomos – mas está presente mesmo quando fazemos algo simples, como procurar um termo no Google. Sim, isso mesmo – a IA está profundamente integrada em muitos produtos do Google, incluindo seu famoso mecanismo de busca.

ética em inteligência artificial

Hoje, mais de 37% de todas as empresas empregam IA de uma forma ou de outra.

No entanto, o desenvolvimento de produtos baseados em IA vai além da tecnologia.

As empresas também se preocupam com a ética da Inteligência Artificial – a preocupação com o comportamento moral ao projetar, construir, usar e tratar sistemas de IA. Há muitas perguntas que geralmente surgem ao desenvolver produtos baseados em IA:

Os sistemas de IA podem tomar decisões éticas? Que problemas a Inteligência Artificial pode causar em termos de comportamento moral? É possível prevenir situações antiéticas? O que acontece quando um sistema de IA comete um erro?

Não há uma resposta fácil para essas perguntas. Na verdade, alguns deles são tão complicados que não têm nenhuma resposta definitiva . Para entender melhor essas questões, hoje examinaremos a ética da inteligência artificial a partir das lentes dos carros autônomos da Welmo.

Então, vamos direto ao assunto:

Ética da Inteligência Artificial: o dilema dos carros autônomos

Originado como o Google Self-Driving Car Project em 2009 até se tornar uma subsidiária autônoma em dezembro de 2016, a empresa de desenvolvimento de tecnologia Waymo lançou seu primeiro serviço comercial de carros autônomos em dezembro de 2018.

Em outubro de 2018, o carro autônomo completou mais de 10 milhões de milhas de condução em vias públicas e as surpreendentes 7 bilhões de milhas de simulação em um programa de mundo virtual chamado Carcraft.

ética em inteligência artificial

No entanto, apesar de impressionar o mundo com uma tecnologia revolucionária baseada em total autonomia com sensores que proporcionam visão de 360 ​​graus e lasers capazes de detectar objetos a até 300 metros de distância, a empresa avaliada em mais de US$ 100 bilhões ainda precisa resolver alguns problemas importantes . desafios morais .

Para explicar esses desafios éticos em um exemplo prático, vamos dar uma olhada neste vídeo chamado O dilema ético dos carros autônomos de Patrick Lin e analisá-lo sob a perspectiva da Carta Magna:

dilema ético dos carros autônomos

Ética da Inteligência Artificial: O dilema ético dos carros autônomos (assista ao vídeo)

Neste experimento mental, Patrick Lin nos apresenta um caso prático em que um carro autônomo, encaixotado por todos os lados da estrada, é ameaçado pela queda de um objeto pesado e precisa tomar uma decisão importante – desviar para a esquerda um SUV, desvie para a direita em uma motocicleta ou continue em frente e seja atingido pelo objeto.

Nesta situação, Patrick Lin faz a seguinte pergunta baseada na moral:

O carro deve priorizar a segurança do passageiro ao bater na motocicleta, minimizar o perigo para os outros ao não desviar (mas arriscando a vida do passageiro) ou bater no SUV? Qual seria a decisão mais ética neste caso?

Neste exercício mental, Patrick Lin afirma que, se a decisão for tomada por uma pessoa que dirige manualmente um veículo normal, isso pode ser interpretado como uma reação impulsiva baseada em pânico, em vez de uma decisão real.

No entanto, no caso de um veículo autônomo tomar uma decisão com base em situações e circunstâncias pré-programadas, isso seria considerado um “ homicídio premeditado ”?

Os resultados de possíveis acidentes serão determinados com meses de antecedência pelos programadores? Que fatores devem ser levados em consideração de antemão para minimizar os danos?

O experimento mental conduzido por Patrick Lin deixa muito espaço para a compreensão, análise e implementação da inteligência artificial.

Considerando possíveis cenários futuros como este, vamos dar uma olhada em quais desafios a Waymo terá que resolver para ter sucesso com seus carros autônomos.

Equilíbrio de poder e decisões de máquina

Sem dúvida, um dos principais desafios para a Waymo e outras empresas que desenvolvem tecnologia de direção autônoma continua sendo determinar o equilíbrio de poder entre humanos e máquinas – em que ponto o poder deve mudar de máquinas para humanos e de humanos para máquinas?

Podemos ser total e incondicionalmente dependentes deles?

Nesta fase de uma tecnologia ainda emergente, provavelmente não. Isso fica ainda mais claro quando se observa o recente acidente na Etiópia do Boeing 737 Max, onde o sistema anti-stall MCAS forçou automaticamente o nariz do avião para baixo devido a leituras incorretas dos sensores, tornando os pilotos praticamente incapazes de fazer qualquer coisa para corrigir o problema. erro da máquina.

exemplos de declaração de missão

Foi dado ao sistema muito poder e prioridade sobre a intervenção humana? Embora seja verdade que a inteligência artificial reduz o erro humano em grande medida, isso não significa que o erro da máquina não acontecerá em algum ponto do processo.

Escolha pessoal e polarização

A próxima reflexão quando se trata de ética em inteligência artificial tem a ver com escolha pessoal e polatização.

É um dos maiores aspectos quando se trata da Magna Carta – um guia para inclusão e justiça na economia global da IA, apresentado pelos especialistas Olaf Groth, Mark Nitzberg e Mark Esposito.

Este guia tem como objetivo apoiar as organizações no desenvolvimento de uma estratégia de IA de sucesso, com foco na ética da Inteligência Artificial. Isso levanta questões importantes sobre o grau de escolha humana e inclusão no desenvolvimento de IA.

Como vamos governar este admirável mundo novo de meritocracia mecanizada? As máquinas eliminarão a escolha pessoal?

ética em inteligência artificial

Embora a escolha pessoal e a polarização sejam alguns dos principais aspectos da Magna Carta, a tecnologia de direção autônoma pode não necessariamente ter um forte impacto negativo nas pessoas e em seu dia-a-dia.

Este tipo de tecnologia foi concebida com a ideia de tomar decisões melhores, mais rápidas e mais amigas do ambiente que acabariam por beneficiar praticamente todos os utilizadores deste serviço. Isso pode reduzir a escolha pessoal até certo ponto, mas não acho que a eliminará completamente.

Julgamentos, discriminação e preconceito

Como já discutimos anteriormente, máquinas com inteligência artificial tomarão decisões sobre nossa segurança que podem comprometer o bem-estar de outras pessoas se já estiverem pré-programadas para “reagir” de uma determinada maneira dependendo da situação.

Como vimos no exemplo do carro sendo ameaçado por um objeto pesado, a prioridade seria minimizar os danos gerais ou salvar o proprietário do veículo autônomo?

Como pergunta Patrick Lin, você escolheria um carro que sempre salva o maior número de vidas possível em um acidente, ou um que o salvaria a qualquer custo? Essas são apenas algumas das questões que surgem quando se trata de ética em Inteligência Artificial.

inteligência artificial google

Além disso, o que aconteceria se o carro começasse a analisar dados com base na história pessoal, na predisposição e nos preconceitos invisíveis de um programador? Existe alguma garantia de que as decisões que os carros autônomos tomam sempre serão completamente objetivas, e quem as decidiria?

Programadores, empresas, talvez até governos? Qual é a possibilidade de discriminação de máquina baseada em algoritmos e certo reconhecimento de padrões? Nesse caso, acho que a tecnologia de direção autônoma ainda não está em conformidade .

Conclusão

Concluindo, acredito que a chave para responder e resolver essas questões éticas seria equilibrar o poder entre máquinas e humanos e decidir até que ponto as máquinas (neste caso, carros autônomos) seriam capazes de produzir decisões.

Acho que, como a tecnologia ainda está emergindo, os humanos devem ter o poder e a prioridade de tomar decisões baseadas na moral enquanto as máquinas estão evoluindo e se tornando capazes de tomar decisões objetivas que minimizem os danos a todos.

O que você pensa sobre a ética da inteligência artificial? Os humanos devem reinar sobre as máquinas, as máquinas sobre os humanos, ou deve haver um equilíbrio bem calculado? Deixe-me saber nos comentários abaixo! Se você gostou deste artigo, também pode gostar de 12 maneiras como o aprendizado de máquina pode melhorar o marketing.