Icône et logo de l'application Twitter

Stephen Shankland/CNET

Twitter a une nouvelle façon de se débarrasser des biais d’intelligence artificielle : payer des étrangers pour trouver des problèmes. Vendredi, le créateur d’applications de messages courts a détaillé une nouvelle compétition de primes qui offre prix allant jusqu’à 3 500 $ pour avoir montré à Twitter comment sa technologie traite incorrectement les photos.

Plus tôt cette année, Twitter a confirmé un problème dans son mécanisme de recadrage automatique des photos, concluant que le logiciel favorisait les blancs par rapport aux noirs. Le mécanisme de recadrage, que Twitter appelle son « algorithme de saillance », est censé présenter la section la plus importante d’une image lorsque vous faites défiler les tweets.

L’approche de Twitter pour lutter contre les biais algorithmiques – demander à des experts et observateurs extérieurs de étudier son code et résultats – innove sur les primes de bogues, qui ont historiquement été utilisées pour signaler les vulnérabilités de sécurité. Twitter dit que sa prime de biais est une première dans l’industrie et espère que d’autres entreprises emboîteront le pas.

“Cela incite davantage de personnes à s’impliquer qui n’avaient peut-être pas de ressources et de temps libre”, a déclaré Rumman Chowdhury, directeur du programme d’éthique, de transparence et de responsabilité d’apprentissage automatique de Twitter. « Nous voulons commencer à cultiver et à créer une communauté de pirates informatiques éthiques. »

La lutte contre les biais algorithmiques est devenue une préoccupation de plus en plus importante pour la technologie. L’IA peut causer des problèmes, notamment en dénigrant des populations particulières ou en renforçant les stéréotypes, si le logiciel n’est pas formé efficacement. Le projet de Twitter est conçu pour consolider les normes autour d’idées telles que préjudice de représentation.

L’IA a révolutionné l’informatique en enseignant aux appareils comment prendre des décisions basées sur des données du monde réel au lieu de règles de programmation rigides. Cela aide à effectuer des tâches compliquées telles que la compréhension de la parole, le filtrage du spam et l’identification de votre visage pour déverrouiller votre téléphone.

Les algorithmes qui alimentent l’IA, cependant, peuvent être opaques et refléter des problèmes dans les données d’entraînement. Cela a conduit à des problèmes comme Google qualifie à tort les Noirs de gorilles en photo. Résoudre les problèmes d’IA est important car nous comptons sur la technologie pour gérer de plus en plus notre vie numérique. Cela peut également être important au sein des entreprises : Google reconnaît que sa gestion d’un problème d’éthique de l’IA nuire à la réputation de son programme.

La prime de biais algorithmique de Twitter est similaire aux programmes que de nombreuses entreprises technologiques proposent désormais pour détecter les problèmes de sécurité dans leurs produits. Par exemple, Google a payé 29 millions de dollars pour 11 055 vulnérabilités trouvé dans Android, Chrome et d’autres produits Google au cours de la dernière décennie.

Commencez HackerOne aide à organiser le concours de primes de biais algorithmique de Twitter, règles de partage et acceptation des soumissions. La date limite pour les inscriptions est le 6 août à 23 h 59, heure du Pacifique, et Twitter annoncera les gagnants le 9 août.

Les lacunes de l’IA peuvent être exploitées de plusieurs manières, y compris des images spécialement conçues qui pourraient transformer le logiciel de saillance de Twitter en complice involontaire d’une attaque extérieure. Les chercheurs voudront peut-être examiner d’autres algorithmes pour déceler les biais – les tweets que Twitter choisit de mettre en évidence ou d’omettre de votre flux, par exemple. Pour le moment, la prime de biais de Twitter se limite à son algorithme de recadrage.

By admin

Leave a Reply

Your email address will not be published.