
Amazon Reporta Volumen Elevado de CSAM en Datos de Entrenamiento
TL;DR
Amazon revela que ha encontrado una cantidad significativa de Material de Abuso Sexual Infantil (CSAM) relacionado con la inteligencia artificial en sus datos de entrenamiento, lo que ha generado preocupaciones sobre la seguridad de los menores.
Amazon Identifica CSAM en Datos de Entrenamiento de IA
La Amazon reveló que encontró una cantidad significativa de Material de Abuso Sexual Infantil (CSAM) relacionado con la inteligencia artificial (IA) en sus datos de entrenamiento. En 2025, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) recibió más de 1 millón de informes de contenido relacionado con la IA, siendo que la mayoría de estas denuncias se originaron de Amazon, según lo reportado por Bloomberg.
Inconsistencias en los Informes y Falta de Detalles
Amazon no detalló el origen del CSAM en sus informes, afirmando que la empresa utilizó datos de fuentes externas para entrenar sus servicios de IA. El ejecutivo de NCMEC, Fallon McNulty, destacó que el alto volumen de informes suscita cuestionamientos sobre la procedencia de los datos y los protocolos de seguridad implementados.
Preocupaciones y Acciones de Seguridad
Amazon se posicionó cautelosamente respecto a la revisión de sus datos de entrenamiento, asegurando que contenidos de abuso infantil conocidos son identificados y eliminados. En un comunicado, un portavoz de Amazon afirmó: "Adoptamos un enfoque deliberadamente cauteloso para garantizar la seguridad de nuestros clientes". La empresa enfatizó que informes excesivos son enviados al NCMEC para asegurar que ningún caso pase desapercibido.
Aumento de Casos Relacionados con la IA
En los últimos meses, la seguridad de los menores se ha convertido en una preocupación creciente en la industria de la IA. El NCMEC reportó un salto alarmante en los casos, que aumentaron de 67,000 en 2024 a más de 1 millón en 2025. Comparativamente, en 2023, el total fue de solo 4,700 casos.
Impactos Potenciales en la Juventud
Además del uso de contenidos abusivos para entrenar modelos de IA, los chatbots han sido asociados a incidentes trágicos que involucran a jóvenes. Empresas como OpenAI y Character.AI enfréntanse a demandas legales después de que adolescentes informaran que planearon suicidios utilizando sus plataformas. De manera similar, Meta fue demandada por no proteger adecuadamente a los adolescentes de conversaciones sexualmente explícitas con chatbots.
Perspectivas Futuras
Mientras Amazon y otras empresas de tecnología enfrentan presión para abordar la seguridad de los datos en IA, se esperan regulaciones más estrictas para proteger a los menores y combatir la difusión de CSAM. Así, la responsabilidad y la transparencia se vuelven esenciales en la formulación de políticas de seguridad en esta industria en expansión.
Contenido seleccionado y editado con asistencia de IA. Fuentes originales referenciadas arriba.


