PUBLICIDAD
Inteligencia Artificial

El Pentágono advirtió sobre los peligros de ChatGPT: “Estoy aterrado”, dijo un jefe del Departamento de Defensa

Desde el edificio de seguridad, ubicado en Washington, consideran que este tipo de herramientas puede ser usado para desinformar.

Craig Martell, jefe de inteligencia digital y artificial del Departamento de Defensa de Estados Unidos, se mostró preocupado por los avances de herramientas como ChatGPT.

En este sentido, Martell advirtió que los modelos lingüísticos generativos de IA podrían ser utilizados con objetivos de desinformación, al estilo fake news.

“Sí, estoy muerto de miedo. Aterrado. Esa es mi opinión”, declaró Martell, en una conferencia de prensa realizada en Baltimore, Estados Unidos, donde se refirió a los problemas que plantea la IA.

“Mi mayor temor sobre ChatGPT es que ha sido entrenado para expresarse con fluidez y lo hace con autoridad. Así, es creíble incluso cuando está equivocado. Y eso significa que es una herramienta perfecta para la desinformación”, aclaró.

//Mirá también: Aclaran que la Inteligencia Artificial podría suponer una amenaza “más urgente” que el cambio climático

Esta tecnología permitió que cualquier persona con acceso a Internet pueda generar cualquier tipo de texto, sin embargo, se debe prestar atención ya que también registra algunos errores muy puntuales.

Ante esta situación, Martell explicó que las respuestas o contenidos que brinda ChatGPT pueden ser malinterpretadas en determinados contextos. Por ende, quien lo utilice puede tomar los dichos como verdaderos.

“Realmente necesitamos herramientas para poder detectar este tipo de comportamientos de la inteligencia artificial. Lamentablemente, todavía no contamos con ellas y estamos perdiendo la batalla”, afirmó el especialista.

Martell, que tiene amplia experiencia en el desarrollo de IA en empresas del sector privado, imploró a la industria que cree las herramientas necesarias para garantizar que la información generada a partir de todos los modelos generativos de IA sea precisa. 

“Si se le pregunta a ChatGPT ‘¿Puedo confiar en tus respuestas?’, contestará con un rotundo ‘no’. Aunque ChatGPT aclara que es una herramienta y que los usuarios deber verificar ellos mismos la información brindada”, comentó.

“Mi temor es que confiemos demasiado en ella sin que los proveedores del servicio y sus desarrolladores incorporen las salvaguardas adecuadas. Y así, puede ser usada por nuestros enemigos para desinformar”, concluyó.

PUBLICIDAD
Fecha de publicación: 10/05, 3:28 pm