Bienvenidos a este punto de encuentro en el que es posible compartir ideas sobre el mundo
de las tecnologías y su relación con la cultura y la educación.



martes, 5 de julio de 2016

Ética e inteligencia artificial




Recientemente he leído diferentes artículos que hacen referencia a los avances de la inteligencia artificial, y a su cada vez mayor capacidad para tomar decisiones de manera autónoma, lo que lleva a plantearnos cuestiones de tipo moral. Este dilema ya lo formuló Stanley Kubrick en su película ‘2001, una odisea del espacio’ (1968) donde un robot de última generación llamado Hal 9000, dotado de emociones y sentimientos, trata de asesinar a toda la tripulación de la nave Discovery en la que viajan en una misión a Júpiter, para encubrir varios errores cometidos por él y que considera humillantes. Por cierto, a este planeta acaba de llegar estos días la nave Juno, después de cinco años de viaje.

La cuestión de la ética aplicada al comportamiento de los robots y máquinas con autonomía para la toma de decisiones resulta relevante. El caso más citado en las publicaciones referidas a esta cuestión plantean el siguiente dilema: Imagine que un automóvil viaja a una velocidad considerable por una carretera, se trata de un vehículo autónomo. En su interior viaja una persona y repentinamente, tres niños se abalanzan sobre la carretera por error y el coche debe elegir entre dos opciones, seguir hacia adelante y atropellar a los tres niños o dar un giro violento y salirse del trazado con su pasajero. ¿Compraría para su familia un coche que va a matar a sus tripulantes para salvar otras vidas?

En un estudio publicado en la revista Science, se ha recogido la opinión de ciudadanos norteamericanos sobre estos dilemas. La primera conclusión es que la mayoría de los encuestados quiere que los coches autónomos tengan esta moralidad utilitarista: mejor matar a un pasajero que atropellar a 10 peatones. Sin embargo, la mayoría asegura que no compraría un coche con estas características.

Los especialistas en inteligencia artificial sugieren que en un futuro ya cercano, esos coches podrán aprender de forma autónoma su propio criterio moral, ya que la inteligencia artificial estará más desarrollada para cuando lleguen los vehículos completamente autónomos, llamados de nivel 5. Los coches saldrían de fábrica igual pero cada uno evolucionaría de forma distinta sus elecciones éticas, según comportamientos que irá aprendiendo.

El equipo del Instituto Tecnológico de Massachusetts (MIT) que ha participado en el estudio ha lanzado una web en la que se puede realizar un test para poner a prueba nuestros criterios morales en diferentes escenarios complejos. ¿Matar al pasajero o a un peatón que cruzaba cuando debía? ¿Atropellar a dos ancianos o a un niño? ¿A un médico que cruza en rojo o a un ladrón que cruza en verde? Terminado el test, podrá comparar su criterio con la media de los demás encuestados.

Esta cuestión cabe ampliarla a otros muchos ámbitos como el de las armas inteligentes (sic), la vigilancia policial, la ingeniería genética, la tecnología aplicada al mundo financiero, etc. La regulación ética, el establecimiento de límites en base a unos criterios morales parece razonable y esperable una reflexión profunda sobre estas cuestiones que influirán en nuestro futuro.

No hay comentarios: