Entités
Voir toutes les entitésStatistiques d'incidents
Rapports d'incidents
Chronologie du rapport
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Des articles ont été publiés dans la presse sur les résultats d'un projet de recherche à l'Université de Stanford, selon lesquels l'ensemble de formation LAION 5B contient des contenus potentiellement illégaux sous forme de CSAM. Nous aimer…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Une enquête du Stanford Internet Observatory (SIO) a identifié des centaines d'images connues de matériel pédopornographique (CSAM) dans un ensemble de données ouvertes utilisé pour entraîner des modèles populaires de génération de texte en…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Un ensemble de données de formation populaire pour la génération d'images d'IA contenait des liens vers des images de maltraitance d'enfants, [Observatoire Internet de Stanford trouvé](https://cyber.fsi.stanford.edu/news/investigation-finds…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Un vaste ensemble de données publiques qui a servi de données de formation pour un certain nombre de générateurs d’images d’IA s’est avéré contenir des milliers de cas de matériel d’abus sexuel sur des enfants (CSAM).
Dans une étude publiée…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
*Cet article est publié avec le soutien de The Capitol Forum. * L'ensemble de données d'apprentissage automatique LAION-5B utilisé par Stable Diffusion et d'autres produits majeurs d'IA a été supprimé par l'organisation qui l'a créé après q…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Un énorme ensemble de données d'IA open source, LAION-5B, qui a été utilisé pour former des générateurs de texte-image d'IA populaires tels que Stable Diffusion 1.5 et Imagen de Google, contient au moins 1 008 cas de matériel d'abus sexuel …
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Plus de 1 000 images d’enfants victimes d’abus sexuels ont été découvertes dans le plus grand ensemble de données utilisé pour entraîner l’IA génératrice d’images, choquant tout le monde, à l’exception de ceux qui mettent en garde contre ce…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Stable Diffusion, l'un des outils d'IA générative de texte en image les plus populaires sur le marché de [la startup Stability AI d'un milliard de dollars](https://www.forbes.com/sites/kenrickcai/2023/06/04/stable -diffusion-emad-mostaque-s…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Des chercheurs de l'Observatoire Internet de Stanford affirment qu'un ensemble de données utilisé pour former les outils de génération d'images d'IA contient au moins 1 008 cas validés de matériel d'abus sexuel sur des enfants. Les chercheu…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Il y a eu des problèmes importants avec les données de formation d'AI, avec diverses plaintes déjà déposées par ceux qui prétendaient que leur travail avait été volé, mais la découverte la plus récente a vu des images d'abus sexuels sur des…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Un ensemble de données d'intelligence artificielle largement utilisé pour former Stable Diffusion, Imagen et d'autres modèles de générateurs d'images d'IA a été supprimé par son créateur après qu'une étude a révélé qu'il contenait des milli…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Un ensemble de données d'apprentissage automatique influent, qui a été utilisé pour former de nombreuses applications populaires de génération d'images, comprend des milliers d'images suspectées d'abus sexuels sur des enfants, révèle un nou…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Du matériel pédopornographique (CSAM) a été localisé dans LAION, un ensemble de données majeur utilisé pour entraîner l'IA.
L'Observatoire Internet de Stanford a révélé des milliers d'images d'abus sexuels sur des enfants dans l'ensemble de…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
L'intégrité d'un important ensemble de données de formation d'images d'IA, LAION-5B, utilisé par des modèles d'IA influents comme Stable Diffusion, a été compromise après la découverte de milliers de liens vers du matériel d'abus sexuel sur…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
L’IA générative s’est démocratisée. Les kits d'outils permettant de télécharger, de configurer, d'utiliser et d'affiner une variété de modèles ont été transformés en frameworks en un clic pour toute personne disposant d'un ordinateur portab…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Dans Ceux qui s'éloignent d'Omelas, l'écrivaine de fiction Ursula K. Le Guin décrit une ville fantastique dans laquelle les progrès technologiques ont assuré une vie d'abondance à tous ceux qui y vivent. Cachée sous la ville, où personne n'…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
translated-fr-Why are AI companies valued in the millions and billions of dollars creating and distributing tools that can make AI-generated child sexual abuse material (CSAM)?
An image generator called Stable Diffusion version 1.5, which w…
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
translated-fr-Artificial intelligence researchers said Friday they have deleted more than 2,000 web links to suspected child sexual abuse imagery from a dataset used to train popular AI image-generator tools.
The LAION research dataset is a…
Variantes
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Discrimination in Online Ad Delivery
Incidents similaires
Did our AI mess up? Flag the unrelated incidents