Demasiados niños ya conocen a alguien que ha sido víctima de deepfake

Por

El mundo sin inteligencia artificial es cosa del pasado.

Las estimaciones apuntan a que uno de cada ocho niños personalmente conoce a alguien que ha sido sujeto de una foto o video deepfake (imágenes generadas por IA), y el número aumenta a uno de cada cuatro que ha visto un deepfake sexualizado de alguien que reconocen, bien sea un amigo o una celebridad.

Se trata de un problema real, y es algo de lo que los legisladores están repentinamente tomando conciencia.

En la década de los 80, cuando era niño, lo que resumía los temores de los padres era la foto de un niño desaparecido en un cartón de leche de cualquier parte de Estados Unidos. En 2026, es una imagen sugestiva de un ser querido generada por IA.

La cada vez mayor disponibilidad de herramientas generadoras de desnudos mediante IA, como las que se asocian a Grok, ha dado lugar a un incremento vertiginoso de las denuncias de material de abuso sexual infantil generado por inteligencia artificial: de unas 4.700 en 2023 a más de 440.000 tan solo en la primera mitad de 2025, de acuerdo con el Centro Nacional para Niños Desaparecidos y Explotados.

Esto es algo horrible y repugnante. Como madre, me resulta particularmente difícil leer y escribir sobre esto, ya que la capacidad de proteger a tus hijos de ello va más allá de tu control.

Los padres ya luchan por mantener a sus hijos alejados de las redes sociales, retirar las pantallas de las aulas o guardar bajo llave los dispositivos domésticos durante la noche. Y eso después de una década de datos sobre el impacto de las redes sociales sobre los niños.

Aun antes de resolver este problema, la IA está conquistando el mundo, especialmente entre los jóvenes. Aproximadamente la mitad (42%) de los adolescentes de EE.UU. afirman que conversan con chatbots de inteligencia artificial como si fueran amigos o compañeros.

Según Education Week, la gran mayoría de los estudiantes (86%) dicen usar la IA durante el año escolar. Inclusive los niños de entre 5 y 12 años están usando la IA generativa. En ciertos casos muy mediáticos, los padres aseguran que los chatbots de IA incitaron a sus hijos adolescentes a suicidarse.

Son demasiados los padres que no están al tanto de la situación. Una encuesta realizada por Common Sense Media muestra que los padres subestiman sistemáticamente el uso que hacen sus hijos de la IA.

Lo mismo ocurre con las escuelas. La misma encuesta reveló que pocas escuelas habían comunicado, o incluso elaborado, una política sobre inteligencia artificial.

Sin embargo, hay una sensación compartida de aprensión: los estadounidenses siguen estando mucho más preocupados (50%) que entusiasmados (10%) por el mayor uso de la IA en la vida diaria, y la gran mayoría cree que tiene poca o ninguna capacidad para controlarla (87%).

Los legisladores están tomando medidas.

Este martes, el Senado aprobó por unanimidad un proyecto de ley, Defiance Act (Ley de Desafío), que permite a las víctimas de pornografía deepfake demandar a quienes crearon las imágenes.

El Reino Unido y la Unión Europea investigan si Grok se utilizó para generar imágenes deepfake sexualmente explícitas de mujeres y niños sin su consentimiento, violando así su Online Safety Act (Ley de Seguridad en Línea).

En Estados Unidos, la Ley Take It Down (Bájalo), promulgada por el Congreso el año pasado, criminaliza las deepfakes sexuales y exige a las plataformas que eliminen las imágenes en un plazo de 48 horas; quienes las compartan podrían enfrentarse a penas de prisión.

En mi estado natal, Texas, contamos con algunas de las leyes de IA más estrictas del país.

La Ley de Protección Infantil en Línea mediante el Empoderamiento Parental (SCOPE, por sus siglas en inglés) de 2024, entre otras medidas, exige que las plataformas implementen una estrategia para evitar que los menores se expongan a material dañino.

Desde el 1 de septiembre de 2025, es ilegal crear o distribuir imágenes sexualmente sugerentes sin consentimiento. Las sanciones van desde delitos graves y prisión hasta multas recurrentes.

Y a partir de este año, entra en vigor la Ley de Gobernanza Responsable de IA de Texas (TRAIGA, por sus siglas en inglés), que prohíbe el desarrollo de inteligencia artificial con la única intención de crear deepfakes.

Puede que Texas no sea conocido por su bipartidismo, pero estas iniciativas se han impulsado de forma bipartidista y se han presentado (correctamente) como una forma de proteger a los niños texanos y los derechos de sus padres.

“En la era digital actual, debemos seguir luchando para proteger a los niños texanos de la tecnología engañosa y explotadora”, declaró el Fiscal General Ken Paxton al anunciar su investigación sobre el estudio Meta AI y Character.AI.

No obstante, no sabemos si estas leyes serán efectivas. Primero, todo es muy nuevo. Segundo, la tecnología sigue cambiando.

Además, no ayuda que los creadores de la IA tengan una estrecha relación con Washington. Las grandes empresas tecnológicas dominan actualmente la escena política en Washington D.C.; su influencia como grupo de presión ha ido creciendo de manera significativa.

Ya más cerca de casa, a los demócratas de Texas les preocupa que Paxton no presione a Musk por el desastre de Grok, teniendo en cuenta los fuertes vínculos del multimillonario con el Partido Republicano.

Bajo la administración Trump, la FTC (por sus siglas en inlgés, Comisión Federal de Comercio) inició una investigación formal sobre las grandes tecnológicas, pidiéndoles que detallaran cómo realizan pruebas y monitorean los posibles impactos negativos de los chatbots en los niños.

Sin embargo, eso es básicamente una autodeclaración; estas mismas empresas no han inspirado mucha confianza en ese aspecto con las redes sociales, ni en el caso de Grok, con los desnudos infantiles falsos.

Se requiere una mayor rendición de cuentas externa. Para ello, se requiere un enfoque multifacético.

Me gustaría que el Departamento de Salud y Servicios Humanos incorporara el desafío que la IA representa para el bienestar infantil como parte del movimiento MAHA (por sus silgas en inglés, Hagamos a EE.UU. saludable otra vez).

Una comisión bipartidista podría explorar los límites de edad para la inteligencia artificial, las políticas escolares y las habilidades de relacionarse de los niños. (Es preocupante que se mencionara poco la IA en el informe exhaustivo de MAHA sobre salud infantil del 2025).

Pero incluso con medidas federales y estatales, la realidad es que gran parte del mundo de la IA será manejado por los propios padres. Si bien existen medidas que podrían limitar la exposición de los niños a la IA a edades más tempranas, evitarla por sí sola no es la solución.

Estamos apenas al inicio, y la tecnología de IA ya es inevitable. Está presente en nuestras computadoras, hogares, escuelas, juguetes y trabajos, y la era de la inteligencia artificial apenas comienza.

Se requiere más andamiaje. El trabajo profundo recaerá en los padres. Los padres siempre han necesitado criar hijos con carácter firme, firmeza y virtud moral. Las dificultades de cada época cambian, pero esto no.

Ahora necesitaremos criar hijos con sentido de propósito, capacidad de pensamiento crítico y conocimientos relacionales para vivir con esta nueva y ya omnipresente tecnología, con sus grandes promesas y sus peligros.

Es, sin duda, un mundo nuevo y valiente el que nos espera.

Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com