CIUDAD DE MÉXICO.- En el marco del Día del Niño, Sumsub advierte que el aumento de la conectividad infantil y el avance de la IA están disparando los riesgos de abuso en internet, a un ritmo que los mecanismos actuales y la regulación de plataformas digitales ya no logran contener.
La protección del menor en internet atraviesa un momento crítico; y es que los modelos tradicionales basados en verificación de edad y filtros de contenido están quedando rezagados frente al avance de tecnologías como la inteligencia artificial (IA), cuya creciente capacidad no solo permite generar contenido manipulado con un alto grado de realismo, sino que también ha elevado la sofisticación de los riesgos, incluidos los relacionados con el abuso contra menores.
De acuerdo con la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares (ENDUTIH) 2024 del INEGI, el 77% de niñas, niños y adolescentes de entre 6 y 17 años tiene acceso a internet en su hogar, un nivel de conectividad que refleja avances en inclusión digital, pero también amplía la exposición a riesgos, pues mientras la conectividad crece, también lo hacen las amenazas.
Datos de Sumsub indican que los ataques con deepfakes en Latinoamérica aumentaron un 201% en promedio, con México liderando la región con un incremento cercano al 500% interanual. Este crecimiento no es solo una estadística de verificación de hechos, refleja una tendencia más amplia en el mundo digital, que es la del inquietante potencial de los deepfakes para desinformar, manipular e incluso intensificar la violencia digital, ya que permite generar contenido sexualizado sin consentimiento, incluso a partir de imágenes de menores, ocultar identidades, multiplicar agresores y operar con mayor impunidad dentro de las plataformas.
Frente a este escenario, muchas plataformas en internet continúan apostando por esquemas de verificación de edad como su principal línea de defensa en la protección del menor en internet. Pero este control puede ser fácilmente evadido, desde el uso de identidades falsas hasta la intermediación de adultos y, más crítico aún, no ofrece visibilidad sobre el comportamiento dentro de la plataforma. La pregunta, entonces, es inevitable: ¿están realmente preparadas las plataformas para prevenir abusos impulsados por IA?
IA y abuso digital, el reto que las plataformas ya no pueden ignorar
El reciente caso de Grok, asistente de IA generativa integrado en la plataforma X, desarrollada por xAI, y vinculada a la generación de imágenes sexuales falsas (deepfakes) que afectaron a mujeres y menores de edad, han evidenciado la facilidad con la que estas herramientas pueden utilizarse para generar imágenes hiperrealistas y manipuladas. En este caso, usuarios aprovecharon funciones que permitían alterar fotografías reales con instrucciones simples —como “quitar la ropa” o modificar la apariencia— para producir contenido sexualizado sin consentimiento, incluso de menores.
No se trata de un fenómeno aislado, sino de un hecho que recuerda la necesidad de avanzar en la regulación de las plataformas digitales. En México, estimaciones de la Red por los Derechos de la Infancia (REDIM) indican que, solo en 2024, más de 2.9 millones de adolescentes de entre 12 y 17 años enfrentaron algún tipo de acoso en línea. Además, el informe 2024-2025 del Consejo Ciudadano para la Seguridad y Justicia de la Ciudad de México advierte un aumento en la circulación de material de abuso sexual infantil, con redes sociales y plataformas de videojuegos como principales canales de contacto.
A este escenario se suma una presión regulatoria más clara. En México, la Ley Olimpia reconoce la violencia digital como delito y sanciona la difusión de contenido íntimo sin consentimiento, incluyendo material manipulado. Esto coloca a las plataformas en una posición de responsabilidad indirecta, ya que no es suficiente reaccionar, también deben demostrar capacidad de prevención.
Para José Pablo Diethelm, experto en verificación de identidad digital en Sumsub, resulta evidente que “los controles actuales para la protección del menor en internet son hoy en día insuficientes, las plataformas digitales deben avanzar hacia esquemas más estrictos, con esquemas de verificación de identidad y de edad más robustos, incorporando sistemas de análisis de conductas y controles capaces de actuar de manera preventiva y no meramente reactiva”.
El especialista advierte que, de no hacerlo, las empresas detrás de estas plataformas pueden enfrentar consecuencias directas, desde crisis reputacionales derivadas de la viralización de casos de abuso o la difusión de contenido manipulado, hasta conflictos legales derivados del incumplimiento de su deber de prevención, con la consecuente pérdida de confianza de los usuarios y de los anunciantes.
¿Cómo proteger a los menores en internet? La evolución de los controles digitales
Ante el crecimiento de riesgos asociados a la IA, el especialista de Sumsub advierte que las plataformas en internet deben replantear sus sistemas de verificación de edad, de forma de proteger más eficazmente a los menores. “La evidencia apunta a que ningún método por sí solo es suficiente. Por ello, es recomendable adoptar esquemas de verificación multicapa, que combinen distintos mecanismos en función del nivel de riesgo”, señala. Entre las prácticas emergentes, Diethelm destaca:
Impulsar la prevención antes que reacción. Esto implica implementar una verificación de identidad robusta desde el registro del usuario. A partir de ahí, la verificación de edad debe ir más allá de la autodeclaración, cruzando información con documentos o bases de datos se puede confirmar si el usuario cumple con los requisitos de edad y restringir el acceso de menores a espacios no adecuados. También se requiere hacer revalidaciones periódicas de identidad a fin de detectar desviaciones a tiempo y evitar que cuentas legítimas sean utilizadas de forma indebida.
Hacer un monitoreo continuo. El enfoque debe evolucionar hacia un monitoreo continuo que combine análisis de comportamiento en tiempo real, seguimiento de transacciones e interacciones en entornos donde existen pagos o intercambios de contenido, con el fin de identificar dinámicas asociadas a explotación o grooming digital, y sistemas de scoring de riesgo dinámico que ajusten el nivel de supervisión en función del comportamiento del usuario, no solo de su identidad inicial.
Usar IA contra IA. Las plataformas ya no pueden enfrentar ataques impulsados por IA mediante los controles tradicionales. La respuesta debe estar al mismo nivel, es decir, defensas basadas en IA para detectar, prevenir y frenar abusos en tiempo real, anticipando patrones, identificando contenido manipulado y bloqueando interacciones de riesgo antes de que escalen.
Una responsabilidad compartida. La reciente regulación de las plataformas digitales ya las obliga a prevenir contenido dañino para menores bajo un “deber de diligencia”. Así, la seguridad infantil deja de recaer únicamente en el usuario o en los padres; las plataformas deben asumir un rol activo, integrando la verificación de identidad y el monitoreo a lo largo de todo el ciclo de vida del usuario.
La protección del menor en internet ya no puede depender de barreras superficiales. En un ecosistema donde la inteligencia artificial permite generar identidades, rostros y contenidos sintéticos con alta precisión, las plataformas están llamadas a evolucionar hacia modelos de verificación más dinámicos y basados en riesgo.
De lo contrario, advierte el especialista de Sumsub, la brecha entre la sofisticación de las amenazas y la capacidad de respuesta seguirá ampliándose, con los menores como el eslabón más vulnerable.
AM.MX/fm
The post La protección del menor en internet enfrenta riesgos crecientes por el uso de la IA appeared first on Almomento | Noticias, información nacional e internacional.
