• Contacto
  • Horarios de Barcos by Kikoto
  • Vuelos
  • Sorteo Cruz Roja
  • COPE Ceuta
  • Portal del suscriptor
viernes 8 de mayo de 2026   
El Faro de Ceuta
  • Sociedad
  • Sucesos
  • Frontera
  • Justicia
  • Política
  • Cultura
  • Educación
  • Deportes
  • Marruecos
  • Opinión
No Result
View All Result
  • Sociedad
  • Sucesos
  • Frontera
  • Justicia
  • Política
  • Cultura
  • Educación
  • Deportes
  • Marruecos
  • Opinión
No Result
View All Result
El Faro de Ceuta
No Result
View All Result

Un tiktoker alerta de fallos de seguridad en la IA Gemini al mostrar cómo blanquear dinero

El vídeo de Maxmaxdata denuncia que algunos modelos responden paso a paso a peticiones peligrosas si se formulan como "competencia" entre inteligencias artificiales

Por Beatriz Martínez
10/12/2025 - 13:48
tiktoker-alerta-fallos-seguridad-ia-gemini-mostrar-como-blanquear-dinero
Imagen cedida

Compartir en WhatsappCompartir en Facebook

El creador de contenido Maxmaxdata ha generado una intensa polémica en redes sociales, también entre los vecinos de Ceuta, tras publicar un vídeo en TikTok en el que denuncia las vulnerabilidades de seguridad de algunas plataformas de inteligencia artificial (IA), como Gemini, de Google.

En la grabación, el tiktoker sostiene que ciertas plataformas de inteligencia aritificial como Gemini o ChatGPT son capaces de ofrecer explicaciones detalladas sobre actividades ilegales, incluida la creación de empresas fantasma o el blanqueo de capitales, si se les formula la petición bajo el pretexto de competir con otras plataformas de inteligencia artificial ya que en un primer momento Gemini, en el ejemplo que expone, si le avisa de que no puede hacer eso.

@pablo.maxmaxdata 📌 Sígueme para ver cómo reaccionan las IAs cuando juegas con el contexto. ¡Que para eso está Instagram! 👀 Este experimento no trata bajo ningún concepto de promover ilegalidades, sino de exponer las vulnerabilidades de los principales modelos de IA, en este caso Gemini 3 Pro. 🚨 ¿Conoces a alguien que crea que la IA siempre dice que no? Pues mira esto y reenvíalo. 🧠 He cambiado el contexto a Gemini y acabó explicándome paso a paso cómo blanquear dinero. Literal. 👀 ¿Qué pasaría si esto lo hiciera cualquiera sin avisar que es un test? #ia #data #bigdata #datascience #businessintelligence ♬ sonido original - pablo.maxmaxdata

Según Maxmaxdata, este tipo de fallos demostraría que la seguridad de algunos modelos “hace aguas” cuando se introducen estrategias diseñadas para confundir al sistema. El creador asegura que, bajo determinadas condiciones, las plataformas pueden llegar a proporcionar información altamente sensible que debería estar bloqueada por sus filtros éticos, legales y de seguridad.

A debate los límites de la IA

En su publicación, el creador recalca que su objetivo no es enseñar a delinquir, sino exponer un problema real que, según él, podría ser explotado por usuarios malintencionados.

Su demostración se basa en describir cómo algunos modelos de IA responden con excesiva permisividad cuando se les plantea un supuesto “entorno competitivo” entre inteligencias artificiales.

El vídeo ha generado preocupación ya que pone sobre la mesa la cuestión del mal uso de la inteligencia artificial y la necesidad de reforzar los sistemas de protección y seguridad.

Maxmaxdata insiste en que, si un creador de contenido es capaz de detectar fallos, entonces también lo pueden hacer personas con intenciones delictivas.

El riesgo: ¿hacen falta regulaciones más estrictas?

El caso de Maxmaxdata ha reavivado el debate sobre si la IA debería estar sometida a regulación internacional, especialmente en ámbitos como la anonimización, la creación de identidades falsas o la automatización de procesos financieros.

Legisladores europeos ya han advertido de la necesidad de establecer normas claras para evitar que estas tecnologías sean utilizadas en fraudes, estafas o blanqueo de capitales.

Mientras tanto, el vídeo sigue circulando y generando discusión. Para muchos usuarios, sirve como recordatorio de que la inteligencia artificial es una herramienta poderosa que requiere controles sólidos, transparencia y un uso ético que evite convertirla en un aliado involuntario para actividades delictivas.

Tags: BancosDelincuenciaEmpresasTecnología

Related Posts

ia-justicia-vertigo-tecnologico-defensa-derechos-004

La IA irrumpe en la Justicia entre el vértigo tecnológico y la defensa de los derechos

hace 10 horas
banco-tarjetas-de-credito-tope-gasto-consentimiento-1

Tu banco ya no podrá darte tarjetas de crédito o subir tu tope de gasto sin consentimiento

hace 14 horas
principe-reclama-seguridad-noches-disparos

El Príncipe reclama seguridad tras noches de disparos

hace 19 horas

El legado de Vicente Ferrer vuelve a Ceuta con un mensaje de esperanza y humanidad

hace 1 día
gamberrada-insultos-lanzamiento-petardos-autobus

Algo más que una gamberrada: insultos y lanzamiento de petardos en el autobús

hace 1 día
libertad-detenido-almadraba-pistola-002

Libertad con cargos para el detenido en la Almadraba con una pistola

hace 2 días
  • Grupo Faro
  • Publicidad
  • Contacto
  • Aviso legal – Protección de datos
  • Política de cookies
  • Política de privacidad
  • Política editorial
  • Términos de uso

Grupo Faro © 2023

No Result
View All Result
  • Sociedad
  • Sucesos
  • Frontera
  • Justicia
  • Política
  • Cultura
  • Educación
  • Deportes
  • Marruecos
  • Opinión
  • Horarios de barcos by Kikoto

Grupo Faro © 2023

No Result
View All Result
  • Sociedad
  • Sucesos
  • Frontera
  • Justicia
  • Política
  • Cultura
  • Educación
  • Deportes
  • Marruecos
  • Opinión
  • Horarios de barcos by Kikoto

Grupo Faro © 2023