Sábado, 11 de Octubre de 2025

Actualizada

Sábado, 11 de Octubre de 2025 a las 21:14:03 horas

| 497
Domingo, 14 de Enero de 2024 Tiempo de lectura:

LA INTELIGENCIA ARTIFICIAL YA NO SOLO ES UN "ARMA LABORAL", SINO TAMBIÉN UN "ARMA DE GUERRA"

La "evolución silenciosa" de la IA en el campo militar: Un análisis crítico de los cambios en las políticas de OpenAI

La reciente actualización en las políticas de uso de OpenAI, eliminando la prohibición específica del uso militar de sus herramientas de IA, ha abierto un debate crítico sobre el futuro ético y estratégico de la inteligencia artificial en el ámbito de la defensa y la seguridad.

 

VICTORIA MARTÍNEZ PARA CANARIAS SEMANAL.ORG

 

      El paisaje tecnológico global está atravesando una [Img #77586]transformación silenciosa pero también extremadamente  significativa. Una de las más recientes y controvertidas actualizaciones es la de OpenAI, la entidad líder en el desarrollo de inteligencia artificial (IA).

 

   El cambio más destacado en su política es la eliminación de la prohibición explícita del uso militar de sus herramientas, incluyendo el renombrado ChatGPT.

 

    El portal The Intercept ha desvelado que hasta el 10 de enero, las políticas de OpenAI prohibían claramente el uso de sus tecnologías en "actividades con alto riesgo de daño físico", destacando el ámbito militar y el desarrollo de armamento. Curiosamente, esta prohibición ha desaparecido en las recientes actualizaciones, siendo reemplazada por una advertencia más genérica que desaconseja el uso de las herramientas para "dañarse a uno mismo o a otros". La especificación de prohibición para usos "militares y bélicos" ya no figura.

 

    Niko Felix, portavoz de OpenAI, ha explicado que la redacción actual busca ser "más clara" y "más legible". La idea es presentar un conjunto de principios universales, fáciles de entender y aplicar en múltiples contextos. Sin embargo, esta nueva vaguedad ha generado incertidumbre sobre si la prohibición se extiende a todos los usos militares.

 

     Mientras tanto, el interés en incorporar la IA en la estrategia militar es palpable, especialmente en el ejército de EE.UU. La subsecretaria de Defensa estadounidense, Kathleen Hicks, ha enfatizado en discursos recientes la importancia de la IA en la innovación militar, aunque reconoce que muchas de las tecnologías disponibles aún no cumplen con los principios éticos de la IA establecidos por el Departamento de Defensa.

 

    Este cambio en las políticas de OpenAI llega en un momento crítico, donde la integración de la IA en la guerra es un tema de debate y preocupación creciente. ¿Cómo impactará esto en el desarrollo futuro de la IA y su regulación? ¿Cuál es la línea ética que debe trazarse en el uso de estas poderosísimas herramientas?

 

 

[Img #77578]


 

   -Confirmación de Cambios en la Política de OpenAI: Según TechCrunch, OpenAI ha confirmado que el lenguaje de su política fue cambiado para acomodar a clientes y proyectos militares que la compañía aprueba. Aunque la política prohíbe explícitamente el uso de sus herramientas para dañar a personas, desarrollar armas, vigilancia de comunicaciones, o dañar propiedad, hay casos de uso de seguridad nacional que están alineados con la misión de OpenAI.

 

  -Flexibilidad en la Nueva Política: De acuerdo a "The Intercept", la nueva política es más vaga y se enfoca en la legalidad más que en la seguridad. Expertos en seguridad cibernética y sistemas autónomos han expresado preocupación sobre las posibles implicaciones en la seguridad de la IA, destacando los riesgos de uso militar, particularmente dados los conocidos problemas de sesgo y falta de precisión en los Modelos de Lenguaje de Gran Escala (LLMs).

 

   -Potenciales Aplicaciones Militares No Violentas de la IA: Aunque las herramientas de OpenAI no podrían ser utilizadas directamente para matar, existen numerosas tareas "adjuntas al asesinato" que un LLM como ChatGPT podría mejorar, como escribir código o procesar órdenes de compra. Se sugiere que la política revisada podría permitir a OpenAI apoyar infraestructuras operativas siempre y cuando la aplicación no involucre directamente el desarrollo de armas.

 

   -Preocupación Sobre la Automatización en la Guerra: Truthout señala que, a medida que avanza la IA, también lo hace su potencial para la automatización en la guerra. Hay advertencias de expertos sobre sistemas de armas autónomos letales, conocidos como "robots asesinos", que podrían representar una amenaza existencial para la humanidad, subrayando la necesidad de medidas de control de armas para frenar el ritmo de la automatización en la guerra.

 

 

Comentarios Comentar esta noticia
Comentar esta noticia

Normas de participación

Esta es la opinión de los lectores, no la de este medio.

Nos reservamos el derecho a eliminar los comentarios inapropiados.

La participación implica que ha leído y acepta las Normas de Participación y Política de Privacidad

Normas de Participación

Política de privacidad

Por seguridad guardamos tu IP
216.73.216.185

Todavía no hay comentarios

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.