¿Nuevas regulaciones del G7 guían el camino hacia una IA confiable?

Por: Elizabeth Montoya

1 noviembre, 2023

El anuncio del Grupo de los Siete (G7), que incluye a Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido, de adoptar un código de conducta general para empresas e instituciones que desarrollen sistemas de inteligencia artificial (IA), fue secundado por el presidente de Estados Unidos, Joe Biden, quien este lunes firmó una orden ejecutiva para proteger a la población del potencial mal uso de esta tecnología, incluyendo la creación de nuevos estándares para la seguridad, equidad, derechos civiles y privacidad en el desarrollo de la IA.

El acuerdo del G7, denominado el “Proceso de IA de Hiroshima”, busca mitigar los riesgos asociados con la IA, como la desinformación y la vulneración de la privacidad y la propiedad intelectual y establece once principios para empresas y organizaciones involucradas en el desarrollo de sistemas de IA. Estos principios incluyen la supervisión de observadores independientes en todas las etapas de desarrollo y lanzamiento de sistemas de IA, así como la detección y corrección de posibles riesgos de uso indebido. Además, se enfatiza la importancia de la transparencia, con un llamado a los desarrolladores para informar públicamente sobre las capacidades y limitaciones de sus sistemas, así como los dominios de uso apropiado e inapropiado.

Por su parte, Biden está exigiendo a los desarrolladores compartir resultados de pruebas de seguridad con el Gobierno -con testeos oficiales previos al lanzamiento-, así como el refuerzo a la investigación para preservar la privacidad ante la facilidad de extraer información personal mediante la IA, todo esto bajo la supervisión y control del Instituto Nacional de Estándares y Tecnología de EE.UU.

Y la preocupación no es exclusiva de estos países. A nivel global, China ha estado a la vanguardia en las regulaciones de la IA, siendo uno de los primeros en establecer revisiones de seguridad y registros de algoritmos ante el Gobierno, así como directrices éticas y la exclusión de sanciones financieras excesivas.

Mientras que en la región latinoamericana, Brasil, Chile y Perú son los países líderes en la regulación de la inteligencia artificial, aunque Colombia ya ha establecido una ley de protección de datos, y está tomando medidas para abordar los desafíos que presenta la IA en aspectos de privacidad y seguridad cibernética.

Pese a que la preocupación principal de la mayoría de los colombianos parece ser la posibilidad de ser reemplazados en sus empleos por parte de las nuevas tecnologías, a continuación detallamos los principales desafíos éticos de la inteligencia artificial y sus posibles soluciones:

  • Sesgos y discriminación: Los modelos de IA pueden reproducir y amplificar sesgos existentes en los datos que analizan. Para ello se requiere mejorar la calidad y diversidad de los datos, auditando los algoritmos.
  • Privacidad: El uso de grandes cantidades de datos personales genera riesgos a la privacidad y es una de las principales preocupaciones tanto de civiles como gobiernos. Por eso, muchos han instado a dar un mayor control a los usuarios sobre el uso de su información o anonimizar los datos.
  • Transparencia: Los modelos de IA suelen ser cajas negras cuyo funcionamiento es poco transparente. Por lo tanto, las soluciones de regulación van dirigidos a explicar los algoritmos a entes de control y documentar los procesos.
  • Seguridad: Errores o hackeos de sistemas de IA pueden tener graves consecuencias, para lo cual se están proponiendo testeos rigurosos, monitoreos constantes y planes de mitigación de riesgos.
  • Rendición de cuentas: Quién es responsable cuando un sistema de IA causa daños es ambiguo, de allí que se requieran regulaciones claras sobre responsabilidades legales.

Al ser sistemas completamente autónomos, los dilemas éticos que se pueden presentar son amplios y diversos, de allí que, sobre la marcha y con evaluación constante, se busquen establecer principios éticos para su diseño y utilización.

Encuestas en Europa revelan que una gran parte de la población siente preocupación sobre cómo la IA podría ser utilizada para manipular a los consumidores, abusar de datos privados y controlar a la población y ya en 2019, la Comisión Europea estableció una “Guía ética para una Inteligencia Artificial confiable” definiendo que una IA confiable es legal, ética y robusta, pero según los expertos, la mayoría de las IA actualmente no cumplen simultáneamente con estos tres criterios.

A medida que la IA continúa su expansión, las regulaciones junto a la gobernanza corporativa parecen ser el camino hacia un uso justo y responsable. Esto demanda por una parte, una mayor rigurosidad de los procesos por parte de las empresas y un mayor compromiso del Estado para analizar -y regular- las múltiples aristas de su impacto, incluyendo el social como el desempleo y el aumento de la desigualdad que traería la automatización, generando, así mismo, las políticas públicas que amortigüen sus efectos.