EE.UU. y Reino Unido establecen directrices para el desarrollo seguro de la IA

Agencias de inteligencia y seguridad de 18 países, incluidos EE.UU. y Reino Unido, acordaron respaldar las primeras directrices a nivel mundial que garantizan que la inteligencia artificial se diseñe, desarrolle e implemente de manera segura, informó este lunes el Centro Nacional de Seguridad Cibernética del Reino Unido (NCSC).
Este conjunto de normas fue elaborado por el NCSC y la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE.UU. (CISA), en colaboración con expertos del sector de la IA y otras 21 agencias y ministerios internacionales.
De acuerdo con los autores de los lineamientos, estos servirán de guía para que los desarrolladores tomen decisiones informadas relacionadas con la ciberseguridad al momento de crear sistemas de IA, específicamente aquellos que hayan sido programados sobre herramientas y servicios proporcionados por entidades externas.
Asimismo, desatacaron que la implementación de estas pautas, que están basadas en un enfoque de "seguridad por diseño", asegurará que los modelos de IA "funcionen según lo previsto, estén disponibles cuando sea necesario y funcionen sin revelar datos confidenciales a partes no autorizadas".
Las naciones que firmaron las nuevas directrices, que se encuentran divididas en cuatro áreas (diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros) incluyen a Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur.
"Este esfuerzo conjunto reafirma nuestra misión de proteger la infraestructura crítica y refuerza la importancia de la asociación internacional para asegurar nuestro futuro digital", indicó la directora de la CISA, Jen Easterly, quien agregó que estas normativas representan "un acuerdo de que lo más importante que hay que hacer en la fase de diseño [de los sistemas de IA] es la seguridad".
El Parlamento Europeo aprobó el pasado mes de junio una ley que regula la utilización de la IA. Esta legislación clasifica a las herramientas de IA de acuerdo con su nivel de riesgo percibido, en términos de seguridad y de derechos fundamentales de los usuarios. Por otro lado, Alemania, Francia e Italia llegaron recientemente a un acuerdo sobre la "autorregulación obligatoria" de los modelos básicos de IA "a través de códigos de conducta".
En el caso de EE.UU., el presidente Joe Biden emitió el pasado 30 de octubre una orden ejecutiva "histórica" para gestionar los riesgos de la inteligencia artificial y "fomentar el liderazgo estadounidense en todo el mundo". Con esta medida, se buscará exigir a las empresas que representen un riesgo grave para la seguridad nacional que compartan información crítica, incluidas las pruebas de seguridad del equipo, en el marco de nuevos estándares para la seguridad y protección de la IA.