El director de Inteligencia Digital y Artificial del Departamento de Defensa de EE. UU., Craig Martell, ha hecho una llamada de atención a la comunidad internacional sobre el peligro que representa la inteligencia artificial generativa. Durante una conferencia cibernética celebrada en Baltimore, Martell ha explicado que este tipo de tecnología podría convertirse en la «herramienta perfecta» para la desinformación y ha asegurado que está «muerto de miedo» por las consecuencias que esto podría tener.
La inteligencia artificial generativa, como ChatGPT, plantea un «problema fascinante» según Martell, ya que aunque no entienden el contexto, hablan con autoridad, lo que hace que las personas tiendan a creer lo que dicen como si fuera un hecho. En su opinión, el mayor temor de ChatGPT es que ha sido entrenado para expresarse con fluidez y autoridad, lo que lo convierte en una herramienta perfecta para la desinformación.
El Pentágono, según Martell, carece de herramientas para detectar cuando esto está sucediendo, y está atrasado en esa lucha. Por tanto, se hace necesario tomar medidas urgentes para evitar que la inteligencia artificial se convierta en una herramienta para desinformar a la sociedad y manipular la opinión pública.
No obstante, otros jefes del Pentágono que participaron en la misma conferencia, han planteado formas de utilizar la inteligencia artificial generativa para la recopilación de información de inteligencia y para la guerra en el futuro. Esto muestra que, como con cualquier tecnología, hay tanto un potencial positivo como un riesgo negativo.
En resumen, la inteligencia artificial generativa es una tecnología con un gran potencial, pero que también plantea importantes desafíos. Es importante que los líderes políticos y empresariales trabajen juntos para establecer regulaciones y medidas para prevenir el mal uso de esta tecnología, garantizando su uso responsable y beneficioso para la sociedad.