Ética de la inteligencia artificial: el caso de los coches autónomos
Publicado: 2022-05-06Un estudio de caso sobre la ética de la inteligencia artificial: los automóviles autónomos de Welmo.
La inteligencia artificial, o simplemente IA, siempre ha sido un concepto fascinante (y un poco aterrador). Sin embargo, no importa cómo lo mires, no se puede negar que la IA juega un papel muy importante en nuestras actividades diarias, incluso si a veces no nos damos cuenta.
Cuando pensamos en ello, pensamos en robots y automóviles autónomos, pero está presente incluso cuando hacemos algo simple, como buscar un término en Google. Sí, así es: la IA está profundamente integrada en muchos productos de Google, incluido su famoso motor de búsqueda.
Hoy en día, más del 37 % de todas las empresas emplean IA de una forma u otra.
Sin embargo, el desarrollo de productos basados en IA va más allá de la mera tecnología.
Las empresas también se preocupan por la ética de la inteligencia artificial: la preocupación por el comportamiento moral a medida que diseñan, construyen, usan y tratan los sistemas de IA. Hay muchas preguntas que surgen a menudo al desarrollar productos basados en IA:
¿Pueden los sistemas de IA tomar decisiones éticas? ¿Qué problemas puede causar la Inteligencia Artificial en términos de comportamiento moral? ¿Es posible prevenir situaciones poco éticas? ¿Qué sucede cuando un sistema de IA comete un error?
No hay una respuesta fácil a estas preguntas. De hecho, algunos de ellos son tan complicados que no tienen ninguna respuesta definitiva . Para comprender mejor estos problemas, hoy analizaremos la ética de la inteligencia artificial desde la perspectiva de los automóviles autónomos de Welmo.
Entonces, profundicemos en ello:
Ética de la inteligencia artificial: el dilema de los coches autónomos
Con su origen como Proyecto de automóvil autónomo de Google en 2009 hasta convertirse en una subsidiaria independiente en diciembre de 2016, la empresa de desarrollo de tecnología Waymo lanzó su primer servicio comercial de automóvil autónomo en diciembre de 2018.
Para octubre de 2018, el automóvil autónomo había completado más de 10 millones de millas de conducción en vías públicas y las asombrosas 7 mil millones de millas de simulación en un programa de mundo virtual llamado Carcraft.
Sin embargo, a pesar de asombrar al mundo con una tecnología revolucionaria basada en la autonomía total con sensores que brindan vistas de 360 grados y láseres que pueden detectar objetos a una distancia de hasta 300 metros, la empresa valorada en más de $ 100 mil millones aún debe resolver algunos problemas importantes . retos morales .
Para explicar estos desafíos éticos en un ejemplo práctico, echemos un vistazo a este video llamado El dilema ético de los autos sin conductor de Patrick Lin , y analicémoslo desde la perspectiva de la Carta Magna:
Ética de la Inteligencia Artificial: El dilema ético de los coches autónomos (ver vídeo)
En este experimento mental, Patrick Lin nos presenta un caso práctico en el que un automóvil autónomo, bloqueado por todos lados en la carretera, se ve amenazado por la caída de un objeto pesado y necesita tomar una decisión importante : girar bruscamente a la izquierda para entrar. un SUV, girar bruscamente a la derecha hacia una motocicleta o continuar recto y ser golpeado por el objeto.
En esta situación, Patrick Lin hace la siguiente pregunta de base moral:
¿Debería el automóvil priorizar la seguridad del pasajero golpeando la motocicleta, minimizar el peligro para los demás al no desviarse (pero arriesgando la vida del pasajero) o golpear el SUV? ¿Cuál sería la decisión más ética en este caso?
En este ejercicio mental, Patrick Lin afirma que si la decisión la toma una persona que conduce manualmente un vehículo normal, podría interpretarse como una reacción impulsiva basada en el pánico en lugar de una decisión real.
Sin embargo, en el caso de que un vehículo autónomo tome una decisión basada en situaciones y circunstancias preprogramadas, ¿se consideraría eso un “ homicidio premeditado ”?
¿Los programadores determinarán los resultados de posibles accidentes con meses de anticipación? ¿Qué factores se deben tener en cuenta de antemano para minimizar el daño?
El experimento mental realizado por Patrick Lin deja mucho espacio para la comprensión, el análisis y la implementación de la inteligencia artificial.
Teniendo en cuenta posibles escenarios futuros como este, echemos un vistazo a los desafíos que Waymo tendrá que resolver para tener éxito con sus autos sin conductor.

Equilibrio de poder y decisiones de máquinas
Sin duda, uno de los principales desafíos para Waymo y otras empresas que desarrollan tecnología de conducción autónoma sigue siendo determinar el equilibrio de poder entre humanos y máquinas : ¿en qué punto debe cambiar el poder de las máquinas a los humanos y de los humanos a las máquinas?
¿ Podremos llegar a depender total e incondicionalmente de ellos?
En esta etapa de una tecnología aún emergente, probablemente no. Esto se vuelve aún más claro cuando se observa el reciente accidente en Etiopía del Boeing 737 Max, donde el sistema MCAS antibloqueo obligó automáticamente a bajar el morro del avión debido a lecturas incorrectas del sensor, lo que hizo que los pilotos fueran prácticamente incapaces de hacer algo para corregir el problema. error de la máquina.
¿Se le dio al sistema demasiado poder y prioridad sobre la intervención humana? Si bien es cierto que la inteligencia artificial reduce el error humano en gran medida, eso no significa que el error de la máquina no ocurrirá en algún punto del proceso.
Elección personal y polarización
La próxima reflexión cuando se trata de la ética de la inteligencia artificial tiene que ver con la elección personal y la polarización.
Es uno de los aspectos más importantes cuando se trata de la Carta Magna: una guía para la inclusión y la equidad en la economía global de IA, presentada por los expertos Olaf Groth, Mark Nitzberg y Mark Esposito.
Esta guía tiene el propósito de apoyar a las organizaciones en el desarrollo de una estrategia exitosa de IA, con enfoque en la ética de la Inteligencia Artificial. Plantea preguntas importantes sobre el grado de elección e inclusión humana en el desarrollo de la IA.
¿Cómo vamos a gobernar este valiente nuevo mundo de meritocracia mecánica? ¿Eliminarán las máquinas la elección personal?
Si bien la elección personal y la polarización son algunos de los aspectos clave de la Carta Magna, es posible que la tecnología de conducción autónoma no tenga necesariamente un fuerte impacto negativo en las personas y su vida cotidiana.
Este tipo de tecnología está diseñada con la idea de tomar mejores decisiones, más rápidas y más respetuosas con el medio ambiente que terminarían beneficiando a prácticamente todos los usuarios de este servicio. Podría reducir la elección personal hasta cierto punto, pero no creo que la elimine por completo.
Juicios, discriminación y parcialidad
Como ya comentamos anteriormente, las máquinas con inteligencia artificial tomarán decisiones sobre nuestra seguridad que podrían comprometer el bienestar de los demás si ya estuvieran preprogramadas para “reaccionar” de cierta manera según la situación.
Como vimos en el ejemplo del automóvil amenazado por un objeto pesado, ¿la prioridad sería minimizar el daño general o salvar al propietario del vehículo autónomo?
Como pregunta Patrick Lin, ¿eligirías un automóvil que siempre salve tantas vidas como sea posible en un accidente, o uno que te salve a ti a toda costa? Estas son solo algunas de las preguntas que surgen cuando se trata de la ética de la Inteligencia Artificial.
Además, ¿qué sucedería si el automóvil comienza a analizar datos en función del historial personal, la predisposición y los sesgos ocultos de un programador? ¿Hay alguna garantía de que las decisiones que toman los coches autónomos sean siempre completamente objetivas y quién las tomaría?
¿Programadores, empresas, tal vez incluso gobiernos? ¿Cuál es la posibilidad de discriminación de máquinas basada en algoritmos y cierto reconocimiento de patrones? En este caso, creo que la tecnología de conducción autónoma aún no es compatible .
Conclusión
En conclusión, creo que la clave para responder y resolver estas cuestiones éticas sería equilibrar el poder entre máquinas y humanos, y decidir hasta qué punto las máquinas (en este caso, los coches autónomos) serían capaces de decisiones
Creo que, dado que la tecnología apenas está emergiendo, los humanos deberían tener el poder y la prioridad para tomar decisiones basadas en la moral, mientras que las máquinas evolucionan y se vuelven capaces de tomar decisiones objetivas que minimizan el daño para todos.
¿Qué opinas sobre la ética de la inteligencia artificial? ¿Deben los humanos reinar sobre las máquinas, las máquinas sobre los humanos, o tiene que haber un equilibrio bien calculado? ¡Déjame saber abajo en los comentarios! Si le gustó este artículo, también le pueden gustar 12 maneras en que el aprendizaje automático puede mejorar el marketing.