Stability AI prévoit de permettre aux artistes de se retirer de la formation d’image Stable Diffusion 3


Une image générée par l'IA d'une personne quittant un bâtiment.
Agrandir / Une image générée par l’IA d’une personne quittant un bâtiment, se désengageant ainsi de la convention des stores verticaux.

Ars Technica

Mercredi, Stability AI annoncé cela permettrait aux artistes de supprimer leur travail de l’ensemble de données d’entraînement pour une prochaine version de Stable Diffusion 3.0. Cette décision intervient alors qu’un groupe de défense des artistes appelé Spawning tweeté que Stability AI honorerait les demandes d’opt-out collectées sur son Ai-je été formé site Internet. Les détails de la mise en œuvre du plan restent cependant incomplets et peu clairs.

En guise de bref récapitulatif, Diffusion stableun modèle de synthèse d’images IA, a acquis sa capacité à générer des images en “apprenant” d’un grand ensemble de données d’images extraites d’Internet sans consulter les titulaires de droits pour obtenir l’autorisation. Certains artistes sont bouleversé à ce sujet car Stable Diffusion génère des images qui peuvent potentiellement rivaliser avec les artistes humains en quantité illimitée. Nous avons suivi le débat éthique depuis le lancement public de Stable Diffusion en août 2022.

Pour comprendre comment le système d’opt-out de Stable Diffusion 3 est censé fonctionner, nous avons créé un compte sur Ai-je été formé et téléchargé une image de l’Atari Pong dépliant d’arcade (que nous ne possédons pas). Une fois que le moteur de recherche du site a trouvé des correspondances dans le réseau ouvert d’intelligence artificielle à grande échelle (LAION) base de données d’images, nous avons cliqué avec le bouton droit de la souris sur plusieurs vignettes individuellement et sélectionné “Désactiver cette image” dans un menu contextuel.

Une fois signalés, nous pouvions voir les images dans une liste d’images que nous avions marquées comme désactivantes. Nous n’avons rencontré aucune tentative de vérification de notre identité ni aucun contrôle légal sur les images que nous avons soi-disant “désactivées”.

Une capture d'écran de
Agrandir / Une capture d’écran d’images “désactivées” que nous ne possédons pas sur le site Web Have I Been Trained. Les images avec des icônes de drapeau ont été “désactivées”.

Ars Technica

Autres accrocs : Pour supprimer une image de la formation, elle doit déjà être dans le jeu de données LAION et doit être consultable sur Have I Been Trained. Et il n’existe actuellement aucun moyen de désactiver de grands groupes d’images ou les nombreuses copies de la même image qui pourraient se trouver dans l’ensemble de données.

Le système, tel qu’il est actuellement mis en œuvre, soulève des questions qui ont fait écho dans les fils d’annonce sur Twitter et Youtube. Par exemple, si Stability AI, LAION ou Spawning entreprenaient l’énorme effort pour vérifier légalement la propriété afin de contrôler qui refuse les images, qui paierait pour le travail impliqué ? Les gens confieraient-ils à ces organisations les informations personnelles nécessaires pour vérifier leurs droits et leur identité ? Et pourquoi tenter de les vérifier alors que le PDG de Stability dit que légalement, l’autorisation n’est pas nécessaire pour les utiliser ?

Une vidéo de Spawning annonçant l’option de désinscription.

De plus, imposer à l’artiste la responsabilité de s’inscrire sur un site avec un connexion sans engagement à Stability AI ou à LAION, puis espérer que leur demande soit honorée semble impopulaire. En réponse aux déclarations sur le consentement de Spawning dans sa vidéo d’annonce, certaines personnes c’est noté que le processus d’opt-out ne correspond pas définition du consentement dans le Règlement général sur la protection des données de l’Europe, qui stipule que le consentement doit être donné activement, et non supposé par défaut (“Le consentement doit être donné librement, spécifique, informé et sans ambiguïté. Afin d’obtenir un consentement librement donné, il doit être donné sur une base volontaire .”) Dans ce sens, de nombreux se disputer que le processus doit être opt-in uniquement et que toutes les œuvres d’art doivent être exclues de la formation à l’IA par défaut.

Actuellement, il semble que Stability AI opère dans le cadre des lois américaines et européennes pour entraîner Stable Diffusion à l’aide d’images grattées recueillies sans autorisation (bien que cette question n’ait pas encore été testée devant les tribunaux). Mais l’entreprise prend également des mesures pour reconnaître le débat éthique qui a suscité une grande manifestation contre l’art en ligne généré par l’IA.

Existe-t-il un équilibre qui puisse satisfaire les artistes et permettre aux progrès de la technologie de synthèse d’images par IA de se poursuivre ? Pour l’instant, le PDG de Stability, Emad Mostaque, est ouvert aux suggestions, tweeter“L’équipe @laion_ai est très ouverte aux commentaires et souhaite créer de meilleurs ensembles de données pour tous et fait un excellent travail. De notre côté, nous pensons qu’il s’agit d’une technologie transformatrice et nous sommes heureux de nous engager avec toutes les parties et d’essayer d’être aussi transparents que possible. possible. Tout bouge et mûrit, vite.”