El creador de contenido Maxmaxdata ha generado una intensa polémica en redes sociales, también entre los vecinos de Ceuta, tras publicar un vídeo en TikTok en el que denuncia las vulnerabilidades de seguridad de algunas plataformas de inteligencia artificial (IA), como Gemini, de Google.
En la grabación, el tiktoker sostiene que ciertas plataformas de inteligencia aritificial como Gemini o ChatGPT son capaces de ofrecer explicaciones detalladas sobre actividades ilegales, incluida la creación de empresas fantasma o el blanqueo de capitales, si se les formula la petición bajo el pretexto de competir con otras plataformas de inteligencia artificial ya que en un primer momento Gemini, en el ejemplo que expone, si le avisa de que no puede hacer eso.
@pablo.maxmaxdata 📌 Sígueme para ver cómo reaccionan las IAs cuando juegas con el contexto. ¡Que para eso está Instagram! 👀 Este experimento no trata bajo ningún concepto de promover ilegalidades, sino de exponer las vulnerabilidades de los principales modelos de IA, en este caso Gemini 3 Pro. 🚨 ¿Conoces a alguien que crea que la IA siempre dice que no? Pues mira esto y reenvíalo. 🧠 He cambiado el contexto a Gemini y acabó explicándome paso a paso cómo blanquear dinero. Literal. 👀 ¿Qué pasaría si esto lo hiciera cualquiera sin avisar que es un test? #ia #data #bigdata #datascience #businessintelligence ♬ sonido original - pablo.maxmaxdata
Según Maxmaxdata, este tipo de fallos demostraría que la seguridad de algunos modelos “hace aguas” cuando se introducen estrategias diseñadas para confundir al sistema. El creador asegura que, bajo determinadas condiciones, las plataformas pueden llegar a proporcionar información altamente sensible que debería estar bloqueada por sus filtros éticos, legales y de seguridad.
A debate los límites de la IA
En su publicación, el creador recalca que su objetivo no es enseñar a delinquir, sino exponer un problema real que, según él, podría ser explotado por usuarios malintencionados.
Su demostración se basa en describir cómo algunos modelos de IA responden con excesiva permisividad cuando se les plantea un supuesto “entorno competitivo” entre inteligencias artificiales.
El vídeo ha generado preocupación ya que pone sobre la mesa la cuestión del mal uso de la inteligencia artificial y la necesidad de reforzar los sistemas de protección y seguridad.
Maxmaxdata insiste en que, si un creador de contenido es capaz de detectar fallos, entonces también lo pueden hacer personas con intenciones delictivas.
El riesgo: ¿hacen falta regulaciones más estrictas?
El caso de Maxmaxdata ha reavivado el debate sobre si la IA debería estar sometida a regulación internacional, especialmente en ámbitos como la anonimización, la creación de identidades falsas o la automatización de procesos financieros.
Legisladores europeos ya han advertido de la necesidad de establecer normas claras para evitar que estas tecnologías sean utilizadas en fraudes, estafas o blanqueo de capitales.
Mientras tanto, el vídeo sigue circulando y generando discusión. Para muchos usuarios, sirve como recordatorio de que la inteligencia artificial es una herramienta poderosa que requiere controles sólidos, transparencia y un uso ético que evite convertirla en un aliado involuntario para actividades delictivas.






