Instagram a commencé à tester un label volontaire appelé AI creator, qui permet aux créateurs d'indiquer si leur contenu a été généré ou modifié par intelligence artificielle. L'initiative, rapportée par Engadget, vise à accroître la transparence sur la plateforme. Cependant, étant facultative, son efficacité réelle reste discutable, surtout dans les cas où elle est le plus nécessaire : la désinformation.
Comment fonctionne le label et ses limites techniques 🤖
Le label apparaîtra à la fois dans les publications individuelles et sur les profils des créateurs. Techniquement, il repose sur l'auto-déclaration de l'utilisateur, sans vérification automatique du contenu. Cela signifie que n'importe qui peut décider de ne pas étiqueter du matériel généré par IA, ou d'étiqueter un contenu qui ne l'est pas. L'absence d'un système de détection automatisé ou de sanctions en cas d'omission laisse la transparence à la bonne volonté, une approche peu rigoureuse pour un problème croissant.
Bientôt : un label pour les humains qui n'utilisent pas encore l'IA 😅
Oui, parce qu'il ne manquait plus qu'un autre label volontaire. Désormais, les créateurs pourront mettre AI creator sur leur profil, juste à côté de influenceur, entrepreneur et coffee lover. La prochaine étape sera un label pour ceux qui promettent de ne pas utiliser de filtres de beauté, ou un qui dise Fait main, sans algorithmes. Mais comme c'est facultatif, ils l'utiliseront tous honnêtement, tout comme les gens disent toujours la vérité sur Internet.