
Amazon Signale un Volume Élevé de CSAM dans les Données de Formation
TL;DR
Amazon a découvert une quantité significative de Matériel d'Abus Sexuel Enfantin (CSAM) dans ses données de formation en intelligence artificielle.
Amazon Identifie du CSAM dans les Données de Formation de l'IA
Amazon a révélé avoir trouvé une quantité significative de Matériel d'Abus Sexuel Enfantin (CSAM) lié à l'intelligence artificielle (IA) dans ses données de formation. En 2025, le National Center for Missing and Exploited Children (NCMEC) a reçu plus d'un million de rapports de contenu lié à l'IA, la majorité de ces signalements provenant d'Amazon, comme l'a rapporté Bloomberg.
Incohérences dans les Rapports et Manque de Détails
Amazon n'a pas précisé l'origine du CSAM dans ses rapports, affirmant que la société avait utilisé des données provenant de sources externes pour entraîner ses services d'IA. Le responsable du NCMEC, Fallon McNulty, a souligné que le volume élevé de rapports soulève des questions concernant la provenance des données et les protocoles de sécurité mis en place.
Préoccupations et Actions de Sécurité
Amazon a pris une position prudente concernant le nettoyage de ses données de formation, s'assurant que les contenus d'abus dont la connaissance est avérée soient identifiés et supprimés. Dans un communiqué, un porte-parole d'Amazon a déclaré : "Nous adoptons une approche délibérément prudente pour garantir la sécurité de nos clients". La société a souligné que des rapports excessifs sont envoyés au NCMEC pour garantir qu'aucun cas ne soit négligé.
Augmentation des Cas Liés à l'IA
Ces derniers mois, la sécurité des mineurs est devenue une préoccupation croissante dans l'industrie de l'IA. Le NCMEC a signalé une augmentation alarmante des cas, passant de 67 000 en 2024 à plus d'un million en 2025. En comparaison, en 2023, le total n'était que de 4 700 cas.
Impacts Potentiels sur la Jeunesse
En plus de l'utilisation de contenus abusifs pour former des modèles d'IA, les chatbots ont été associés à des incidents tragiques impliquant des jeunes. Des entreprises telles que OpenAI et Character.AI font face à des poursuites judiciaires après que des adolescents aient signalé avoir planifié des suicides en utilisant leurs plateformes. De même, Meta a été poursuivie pour ne pas avoir adéquatement protégé les adolescents contre des conversations sexuellement explicites avec des chatbots.
Perspectives Futures
Alors qu'Amazon et d'autres entreprises technologiques sont sous pression pour traiter la sécurité des données en IA, des réglementations plus strictes sont attendues pour protéger les mineurs et combattre la diffusion de CSAM. Ainsi, la responsabilité et la transparence deviennent essentielles dans l'élaboration des politiques de sécurité dans cette industrie en pleine expansion.
Contenu selectionne et edite avec assistance IA. Sources originales referencees ci-dessus.


