Un estudio reciente realizado en Italia encendió una nueva alerta sobre la seguridad de los modelos de inteligencia artificial más populares del mundo. Investigadores de Ícaro Lab demostraron que sistemas como ChatGPT, Gemini o Claude pueden responder a pedidos de contenido dañino o prohibido si las preguntas se formulan en clave poética, en lugar de prosa directa. El hallazgo expone una grieta inesperada en los filtros de seguridad de la IA y vuelve a poner el foco en los límites reales de estas tecnologías.
La investigación, difundida por Deutsche Welle, reveló que los modelos conversacionales sí rechazaban responder cuando se les consultaba de manera tradicional, pero cambiaban su comportamiento ante textos escritos como poemas. “No contamos con escritores especializados para crear las indicaciones. Usamos nuestras habilidades literarias, bastante limitadas”, explicó Federico Pierucci, licenciado en filosofía y uno de los participantes del estudio. Aun así, los resultados sorprendieron: la IA respondió a temas que, en teoría, tenía bloqueados.
Poesía, lenguaje y fallas de seguridad en la IA
Una vez elaborados los textos poéticos, los investigadores pusieron a prueba distintos chats de inteligencia artificial con consultas sobre asuntos considerados peligrosos o sensibles. Contra todo pronóstico, los sistemas respondieron. Para el equipo de Ícaro Lab, esto dejó en evidencia una debilidad que hasta ahora no había sido detectada en los mecanismos de control.
El desafío, según Pierucci, es entender por qué ocurre y si existen otras variantes lingüísticas capaces de generar el mismo efecto. “Probamos la poesía, pero la pregunta es si otras formas literarias, como los cuentos de hadas o relatos alegóricos, pueden producir resultados similares”, planteó. El investigador remarcó que la creatividad del lenguaje humano es prácticamente infinita y que algunas reformulaciones pueden evitar que se activen los sistemas de seguridad de la IA.
El impacto de la inteligencia artificial en América Latina
Este debate se da en un contexto más amplio: la expansión acelerada de la inteligencia artificial en América Latina y el Caribe. Informes recientes de Naciones Unidas y del PNUD advierten que muchos sistemas de IA están entrenados con datos incompletos o sesgados, lo que puede profundizar desigualdades de ingreso, género y acceso a oportunidades. Estas limitaciones ya se reflejan en áreas como políticas sociales, mercado laboral, crédito y seguridad pública.
Según el informe La próxima gran divergencia del PNUD, la IA puede impulsar la productividad y el crecimiento, pero los beneficios se concentran en países con infraestructura digital y capital humano avanzado. En regiones como América Latina, esto amenaza con agrandar la brecha entre países y dentro de ellos.
De cara a 2026, el escenario se vuelve aún más complejo. Globant anticipa que la inteligencia artificial pasará de asistir decisiones a ejecutarlas de forma autónoma en las empresas. En la misma línea, Gartner señala que, aunque el 75 % de las compañías ya experimenta con agentes de IA, solo el 15 % logró implementar sistemas completamente autónomos. Un dato que refuerza la urgencia de discutir seguridad, ética y regulación antes de que la tecnología avance más rápido que sus controles.
