La compañía OpenAI ha cambiado las reglas de uso de sus tecnologías de inteligencia artificial (IA), incluido el popular ChatGPT, eliminando "silenciosamente" la prohibición para su utilización con fines militares.
Según reportó este viernes el portal The Intercept, las políticas de la compañía incluían hasta el 10 de enero una prohibición de "actividades que conllevan un alto riesgo de daño físico", específicamente "militares y bélicos", así como el "desarrollo de armas". Sin embargo, la actualización solo mantiene una advertencia de no usar las herramientas "para dañarse a usted mismo o a otros", utilizando como ejemplo "desarrollar o usar armas", pero la prohibición general del uso "militar y bélico" ha desaparecido.
Según la compañía, la redacción no anunciada de las políticas tenía como objetivo hacer el documento "más claro" y "más legible", en el cual se incluyen muchos otros cambios sustanciales de lenguaje y formato.
"Nuestro objetivo era crear un conjunto de principios universales que fueran fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que ahora también pueden construir GPTs", dijo el portavoz de la firma, Niko Felix, en un correo electrónico al medio.
"Un principio como 'no dañar a los demás' es amplio, pero fácil de entender y relevante en numerosos contextos. Además, citamos específicamente las armas y las lesiones a otros como ejemplos claros", agregó. Sin embargo, se negó a aclarar si la vaga prohibición cubre todo uso militar.
Los cambios se producen cuando los ejércitos de todo el mundo, principalmente el de EE.UU., están ansiosos por incorporar técnicas de aprendizaje automático para obtener una ventaja en el campo de batalla.
La subsecretaria de Defensa estadounidense, Kathleen Hicks, afirmó en un discurso en noviembre pasado que la IA es "una parte clave del enfoque de innovación integral y centrado en los combatientes que el secretario [Lloyd] Austin y yo hemos estado impulsando desde el día 1", advirtiendo que la mayoría de las ofertas disponibles "aún no están lo suficientemente maduras técnicamente para cumplir con nuestros principios éticos de IA".