La Unión Europea dicta las pautas para la inteligencia artificial

La Unión Europea publicó un conjunto de pautas sobre cómo los distintos gobiernos y las empresas deben desarrollar y operar la inteligencia artificial bajo principios claros de ética.

Las nuevas directrices abordan los problemas turbios y difusos que afectarán a la sociedad a medida que integramos la inteligencia artificial en sectores como la atención médica, la educación y la tecnología de consumo.

La Unión Europea reunió a 52 expertos que propusieron siete requisitos para los futuros sistemas de inteligencia artificial deberían cumplir:

  • Agencia humana y supervisión: la IA no debe pisotear la autonomía humana. Los sistemas de IA no deben manipular ni coaccionar a las personas, y los humanos deben poder intervenir o supervisar todas las decisiones que tome el software.
  • Robustez y seguridad técnicas: la IA debe ser segura y precisa. No debería ser fácilmente comprometida por ataques externos y debería ser razonablemente confiable.
  • Privacidad y control de datos: los datos personales recopilados por los sistemas de IA deben ser seguros y privados. No deberían ser accesibles para cualquiera, y no deberían ser robados fácilmente.
  • Transparencia: los datos y los algoritmos utilizados para crear un sistema de IA deben ser accesibles, y las decisiones tomadas por el software deben ser entendidas y rastreadas por los seres humanos. En otras palabras, los operadores deben poder explicar las decisiones que toman sus sistemas de IA.
  • Diversidad, no discriminación y equidad: los servicios proporcionados por IA deben estar disponibles para todos, independientemente de su edad, género, raza u otras características. Del mismo modo, los sistemas no deben estar sesgados en este sentido.
  • Bienestar ambiental y social: los sistemas de IA deben ser sostenibles (es decir, deben ser ecológicamente responsables) y mejorar el cambio social de manera positiva.
  • Responsabilidad: los sistemas de IA deben ser auditables y resguardados por las protecciones existentes para los denunciantes corporativos. Los impactos negativos de los sistemas deben ser reconocidos e dados a conocer por adelantado.

Como parte del mismo esfuerzo, el comunicado ofrece una “Lista de evaluación confiable de IA”, la cual se trata de una serie de preguntas que pueden ayudar a los expertos a descubrir posibles puntos débiles o peligros en un software de inteligencia artificial.

Deja un comentario

This site uses Akismet to reduce spam. Learn how your comment data is processed.