Roboética

Roboética

Resumen

  • Gianmarco Veruggio fue el primero en hacer alusión a la roboética
  • Sin la ética, la inteligencia artificial puede llevarnos a graves errores

Concepto

Hace dos décadas, Gianmarco Veruggio fue el primero en hacer alusión a la ética de la robótica, el campo ético que valora sus implicaciones positivas y negativas.

El objetivo de la roboética es “evitar el mal uso de los robots y de productos y servicios basados en la inteligencia artificial (IA) contra la humanidad”. Si tenemos en cuenta que son los algoritmos los que sustentan la IA, a la vez que esta se halla presente en infinidad de ámbitos de nuestro día a día, dichos algoritmos tienen efectos directos en la personas y la sociedad en general.

Sin la ética, la inteligencia artificial puede llevarnos a graves errores.

Directrices europeas

Existen muchos ejemplos y situaciones de aplicaciones de IA con consecuencias negativas éticamente.

Para poder solucionar esta situación, la Unión Europea ha publicado unas directrices éticas para una IA fiable, basadas en principios que el diseño ético de los sistemas de IA debe respetar.

Para la UE, la IA fiable significa que debe ser lícita, ética y robusta. También plantea 4 principios éticos concretos para ello: respeto a la autonomía humana, prevención del daño, equidad y explicabilidad.

A su vez, la IA fiable conlleva siete requisitos claves:

  • Acción y supervisión humanas, incluidos los derechos fundamentales, la acción y la supervisión humanas.
  • Solidez técnica y seguridad, incluida la capacidad de resistencia a los ataques y la seguridad, un plan de repliegue y la seguridad general, precisión, fiabilidad y reproducibilidad.
  • Gestión de la privacidad y de los datos, incluido el respeto de la privacidad, la calidad y la integridad de los datos, así como el acceso a estos.
  • Transparencia, incluidas la trazabilidad, la explicabilidad y la comunicación.
  • Diversidad, no discriminación y equidad, incluida la ausencia de sesgos injustos, la accesibilidad y el diseño universal, así como la participación de las partes interesadas.
  • Bienestar social y ambiental, incluida la sostenibilidad y el respeto del medio ambiente, el impacto social, la sociedad y la democracia.
  • Rendición de cuentas, incluidas la auditabilidad, la minimización de efectos negativos y la notificación de estos, la búsqueda de equilibrios y las compensaciones.

Soluciones éticas

En este sentido, también existen herramientas que pueden lograr que los algoritmos respeten los derechos humanos: los agentes morales artificiales y la IA explicable.

La IA explicable o explainable AI (XAI) tiene por objetivo seguir, entender y valorar las decisiones tomadas por un sistema de IA, logrando que un humano pueda entender qué proceso de razonamiento ha llevado al sistema a tomar esa decisión.

Por su parte, existe la posibilidad de crear agentes morales artificiales o artificial moral agents (AMAs), incluidos en el código y en los razonamientos de esta tecnología. Su principal función sería obtener decisiones aceptables éticamente en IA.

es_ESES