La Inteligencia Artificial centrada en el ser humano
Un grupo de expertos propone cinco derechos fundamentales para toda IA. Hacer el bien, no hacer el mal, autonomía de los humanos, justicia y acciones explicables.
El mundo ha entrado en una fase en la que la inteligencia artificial será epicentro de casi todas nuestras actividades diarias.
Los robots ya no son solo protagonistas de la ciencia ficción sino que ahora son compañeros de viaje en la realidad. En esta época ya hay que convivir con ellos.
Ya en 1950, Isaac Asimov planteaba en Yo, Robot los problemas de la creación de seres artificiales inteligentes y su relación con los seres humanos. Ahora, la Comisión Europea, siguiendo la estela de Asimov, ha publicado el primer borrador de los principios éticos «para una Inteligencia Artificial confiable».
Este texto provisional propone unos principios rectores como la supervisión por parte de seres humanos y el respeto por la privacidad y la transparencia, para lograr una «Inteligencia Artificial centrada en el ser humano». El documento está firmado por 52 expertos independientes del ámbito académico, empresas y la sociedad civil. El objetivo es que la versión definitiva del proyecto esté disponible en marzo.
Hacer el bien. Según el documento, todos los sistemas tienen que ser diseñados y utilizados con el objetivo de promover la buena dinámica, tanto individual como colectiva.
La inteligencia artificial tiene que diseñarse para generar prosperidad y los expertos añaden que esto sería decisivo incluso para alcanzar la paz. El mundo tiene una serie de retos que cumplir y en el marco de la Unión Europea consideran que los sistemas de inteligencia artificial serán decisivos para alcanzarlos. Además, hacen una referencia indirecta a las injerencias en los procesos electorales, avisando de que los robots utilizados por los gobiernos tienen que preservar la democracia.
No hacer el mal. El grupo de firmantes explica que los sistemas de inteligencia artificial no deberían dañar a los seres humanos. Por diseño, deben proteger la dignidad, integridad, libertad, privacidad y seguridad.
Por otro lado, añaden, no pueden ir en contra de la libertad de expresión, ni pueden construirse para generar nuevos daños a la humanidad o acentuar los que ya existen, sean del tipo que sean (sociales, psicológicos o físicos). Esta prevención estaría enfocada sobre todo a las sociedades o colectivos menos favorecidos. Por último, no pueden ser perjudiciales para el medio ambiente, siguiendo así la estrategia de la UE de combatir los gases contaminantes y paliar el cambio climático.
Preservar la autonomía humana. Este punto se refiere al dominio que pueda ejercer la inteligencia artificial sobre el ser humano. Los robots no pueden utilizar la coacción ni entender a los ciudadanos como subordinados. Si uno es consumidor o usuario de un sistema de inteligencia artificial, tiene que tener derecho a decidir en qué momento lo puede usar y cuándo desiste en sus operaciones.
Ser justos. Los robots deben proporcionar a los usuarios una reparación efectiva si se produce un daño, o un remedio efectivo si las prácticas que realizan no cumplen con las preferencias del ser humano.
El hecho de que tengan que ser considerados con las sociedades menos desarrolladas implica también el no realizar tareas que impidan su evolución.
Ser transparentes. La transparencia es clave para construir y mantener la confianza de los ciudadanos en los sistemas de inteligencia artificial. Esta transparencia incluye tanto la parte tecnológica como la de negocio. La primera se refiere a que los robots tienen que ser entendibles y descifrables por el usuario, mientras que en términos de negocio, el ser humano debe conocer las características del sistema que tiene entre manos.
Fuente: 20minutos.es
- On 9 marzo, 2019