Día a día somos más dependientes de ella. Conoce los últimos avances y las nuevas tendencias.
Por Parágrafo
1 noviembre, 2023
El anuncio del Grupo de los Siete (G7), que incluye a Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido, de adoptar un código de conducta general para empresas e instituciones que desarrollen sistemas de inteligencia artificial (IA), fue secundado por el presidente de Estados Unidos, Joe Biden, quien este lunes firmó una orden ejecutiva para proteger a la población del potencial mal uso de esta tecnología, incluyendo la creación de nuevos estándares para la seguridad, equidad, derechos civiles y privacidad en el desarrollo de la IA.
El acuerdo del G7, denominado el “Proceso de IA de Hiroshima”, busca mitigar los riesgos asociados con la IA, como la desinformación y la vulneración de la privacidad y la propiedad intelectual y establece once principios para empresas y organizaciones involucradas en el desarrollo de sistemas de IA. Estos principios incluyen la supervisión de observadores independientes en todas las etapas de desarrollo y lanzamiento de sistemas de IA, así como la detección y corrección de posibles riesgos de uso indebido. Además, se enfatiza la importancia de la transparencia, con un llamado a los desarrolladores para informar públicamente sobre las capacidades y limitaciones de sus sistemas, así como los dominios de uso apropiado e inapropiado.
Por su parte, Biden está exigiendo a los desarrolladores compartir resultados de pruebas de seguridad con el Gobierno -con testeos oficiales previos al lanzamiento-, así como el refuerzo a la investigación para preservar la privacidad ante la facilidad de extraer información personal mediante la IA, todo esto bajo la supervisión y control del Instituto Nacional de Estándares y Tecnología de EE.UU.
Y la preocupación no es exclusiva de estos países. A nivel global, China ha estado a la vanguardia en las regulaciones de la IA, siendo uno de los primeros en establecer revisiones de seguridad y registros de algoritmos ante el Gobierno, así como directrices éticas y la exclusión de sanciones financieras excesivas.
Mientras que en la región latinoamericana, Brasil, Chile y Perú son los países líderes en la regulación de la inteligencia artificial, aunque Colombia ya ha establecido una ley de protección de datos, y está tomando medidas para abordar los desafíos que presenta la IA en aspectos de privacidad y seguridad cibernética.
Pese a que la preocupación principal de la mayoría de los colombianos parece ser la posibilidad de ser reemplazados en sus empleos por parte de las nuevas tecnologías, a continuación detallamos los principales desafíos éticos de la inteligencia artificial y sus posibles soluciones:
Al ser sistemas completamente autónomos, los dilemas éticos que se pueden presentar son amplios y diversos, de allí que, sobre la marcha y con evaluación constante, se busquen establecer principios éticos para su diseño y utilización.
Encuestas en Europa revelan que una gran parte de la población siente preocupación sobre cómo la IA podría ser utilizada para manipular a los consumidores, abusar de datos privados y controlar a la población y ya en 2019, la Comisión Europea estableció una “Guía ética para una Inteligencia Artificial confiable” definiendo que una IA confiable es legal, ética y robusta, pero según los expertos, la mayoría de las IA actualmente no cumplen simultáneamente con estos tres criterios.
A medida que la IA continúa su expansión, las regulaciones junto a la gobernanza corporativa parecen ser el camino hacia un uso justo y responsable. Esto demanda por una parte, una mayor rigurosidad de los procesos por parte de las empresas y un mayor compromiso del Estado para analizar -y regular- las múltiples aristas de su impacto, incluyendo el social como el desempleo y el aumento de la desigualdad que traería la automatización, generando, así mismo, las políticas públicas que amortigüen sus efectos.