Meta veut clairement identifier toutes les photos générées par IA sur ses services
Meta veut montrer qu’elle sait être responsable par rapport au développement des IA génératives et vient d’annoncer qu’elle allait prochainement identifier clairement certaines fausses images partagées sur ses services. L’entreprise accole déjà un badge aux images créées grâce à son service Imagine AI, qui est indisponible en France pour le moment. Elle le fera bientôt pour les réalisations de Midjourney, DALL-E 3 ou Adobe Firefly. Un nouveau logo indiquant qu’une image a été faite par IA devrait apparaître sur Threads, Facebook et Instagram.
« Nous avons travaillé avec des partenaires de l'industrie pour définir des normes techniques communes qui indiquent qu'un contenu a été créé à l'aide de l'IA », a déclaré Nick Clegg, responsable des affaires internationales et de la communication de Meta. L’entreprise intègre d’ores et déjà des métadonnées invisibles dans ses images générées qui permettent à certains outils de facilement les identifier comme telles. Elle n’est pas la seule à développer ses propres marqueurs : Adobe a ses Content Credentials là où Google a mis sur pied un filigrane maison. Meta va donc prendre en charge ces différents indices au fur et à mesure qu’ils sont implémentés. C’est un pas en avant, qui ne devrait cependant pas changer grand chose pour les images générées sur des moteurs open source comme Stable Diffusion.
Meta travaille également sur un système de détection de fausses images même si les métadonnées ont été modifiées, a indiqué Nick Clegg. La démarche n’est pas sans rappeler celle d’OpenAI, qui planche sur des outils similaires. L’entreprise avait tenté une expérience semblable avec un détecteur de texte, qui avait rapidement été enterré faute de résultats probants.
Alors que DALL-E 3 arrive dans ChatGPT Plus, OpenAI annonce un outil de détection de fausses images
Dans son communiqué, Meta annonce l’arrivée d’une nouvelle fonction destinée à l’utilisateur lui permettant de clairement indiquer « une vidéo photoréaliste ou un son réaliste créé ou modifié numériquement ». Celle-ci vise à combler l’absence de marqueurs invisible pour les contenus autres que les photos (vidéos, son). Des pénalités pourront être appliquées en cas de non-signalement allant de l'avertissement au bannissement. L’entreprise se réserve le droit d’ajouter des avertissements supplémentaires pour les publications particulièrement trompeuses sur certains sujets.
Le calendrier de déploiement de ces mesures n’a pas été communiqué, Meta se contentant d’évoquer « les mois à venir ». On peut s’attendre à une arrivée avant les prochaines élections américaines, qui auront lieu le 5 novembre 2024.
IA generative d’image ! A la benne, ca ne sert à rien de vraiment positif mais ça a un sacré palmarès négatif et on a rien vu.
C’est comme le mec de Samsung qui dit qu’aucune photo n’est réelle, allez on passe au suivant!
L’informatique se développe pour détruire la réalité et nous mettre dans un monde virtuel… est ce pour le meilleur ?
rohlala, vous avez juste pas aimé antman 3 et ses CGI, c'est tout... :)
Abonnez vous plutôt à Amazon Prime et prenez un coca.
#commentaireSponsoriséParIA
@Seb42
Wow vivre dans le passé ca fait pas du bien
@corben64
Que vient faire World of Warcraft là-dedans ?
😉
@corben64
Se questionner sur l'utilisation des technologies ce n'est pas "vivre dans le passé". C'est sain et surtout obligatoire.
Je préfère largement les images générées par IA aux illustrations minimalistes genre memphis corporate
Dans le titre : "SES services", svp ;)
Pour le reste mon avis rejoint clairement celui de @Seb42.
Au lieu de faire des lois scélérates, voilà le genre de loi à laquelle l’UE aurait du s’attaquer si elle avait vraiment une utilité publique quelconque.
Y a la directive en cours sur les IAs
@oomu
Le simple choix du mot « scélérates » en dit long…
@Urubu
Tu veux aussi que l’EU vienne te border ce soir ?
Ça aurait du être fait des le départ ! Ces images sont non seulement une vraie pollution visuelle mais, surtout, un réel danger ! Ils attendent quoi pour agir ? Que les gens soient encore plus debiles qu'ils ne le sont déjà ?
Dans mon domaine je ne compte plus les likes et les oh ah ouah pour applaudir à des images qu'ils pensent être réelles et le pire c'est que quand on leurs dit c'est soit "ah oui mais c'est beau quand même " ou alors ils ne croient pas ....
Bref, ils sont déjà plus qu'atteint et irrécupérables, je le crains 😭😭😭
ben c'est beau les tableaux au pastel, et les plus impressionnants pourraient passer pour des photos de loin.
@socotran77
Pathétique cette façon de penser. De moins point de vue je sais pas qui est le plus débile, sûrement ceux qui juge en pensant avoir la science infuse et la réponse a tout les problèmes
@corben64
Vous êtes déjà trop atteint et vous vous etes même casé dans la case des gens que je cite
La situation est donc bien pire que je ne le craignais
Comment peut on accepter que notre monde ne devienne que virtuel !? Car avec les IA on y courre
C'est vous qui êtes pathétique en même temps? Vous n'êtes même pas sympathique !
Très bonne chose. On est nombreux à attendre cette fonctionnalité depuis longtemps pour identifier les deep fake et limiter le lavage de serre veaux 😅 Serait bon d’avoir l’équivalent pour les vidéos également, il va sans dire.
@firefox
Si vous avez besoin de ça c’est grave.
@corben64
“Si vous avez besoin de ça c’est grave.”
Je vous mets deux photos sous les yeux, une modifiée par firefly, vous savez faire la différence au pixel près? Bravo, vous êtes meilleur que la technologie!
@firefox
C’est vrai c’est un excellente nouvelle que TOUTES les images postées passent dans l’IA de Facebook (Spoiler NON !!!)
Franchement c’est quoi votre (pas a vous en particulier je fais ici référence à de nombreux commentaires précédents) problème avec les IA.
Je ne trouve pas que ça serve à grand chose mais c’est juste un outil.
@franckmac3
“C’est vrai c’est un excellente nouvelle que TOUTES les images postées passent dans l’IA de Facebook (Spoiler NON !!!)
Franchement c’est quoi votre (pas a vous en particulier je fais ici référence à de nombreux commentaires précédents) problème avec les IA.
Je ne trouve pas que ça serve à grand chose mais c’est juste un outil.”
Aucun problème avec l’IA. Tout dépend de l’utilisation qu’on en a. Seulement, il est bon de savoir si une photo a été retouchée/générée par l’IA, surtout lorsque c’est véhiculé par/dans les médias. Y a déjà assez de gaga qui ne croient pas en la science, pas besoin de rajouter une dose pour créer davantage de complots par ex.
@firefox
Ok mais est-ce qu’une loi obligeant un watermark des images générée ne sera pas infiniment préférable à un passage de toutes les images postées dans l’IA de Facebook ?!?
@franckmac3
Mais ce n’est absolument pas ce qu’indique l’article
@Baptiste_nv18
Heu…en toute lettre « grâce à son service Imagine AI » qui est l’IA générative d’image de Meta…
@franckmac3
“Ok mais est-ce qu’une loi obligeant un watermark des images générée ne sera pas infiniment préférable à un passage de toutes les images postées dans l’IA de Facebook ?!?”
Oui, pour bien faire. L’initiative provient aujourd’hui de Meta, peut-être que ça finira par une loi, qui sait. Ou au moins un consortium incluant de gros noms comme Adobe.
@franckmac3
Le problème c’est pas l’IA, c’est la bêtise humaine, et ça tu peux rien y faire.
Tu postes sur X une photo générée avec le sous titre qui va bien, tu peux déclencher la
fin du monde. Genre 1 président en train de se taper un autre président avec « quand les pedophiles satanistes ont pas d’enfant sous la main… »
Tu peux être sur que 70% des gens vont y croire.
@firefox
+100
Le problème c’est que ceux qui veulent vraiment tromper avec des fakes s’installeront leur générateurs perso à partir des outils open source et que ces images là n’auront aucun de la ribambelle de marqueurs plus ou moins officiels de différents fournisseurs.
Meta cherche juste à protéger ses propres fesses et tente d'éviter quelques couteux procès dans le futur...
Pour les "petits" qui se feront peut-être gâcher leur vie par ces images et vidéos, ça ne changera rien.
La simple réalité est qu'on ne peut plus croire ce que l'on voit et il faudra s'y habituer.
Excellente initiative de la part de Meta.
@Artefact3000
Oui et puis ce n’est pas du tout pour entraîner leur IA gratuitement avec toutes les images postées…merci Saint Zuckie 😇
@franckmac3
Verre à moitié vide.
@Artefact3000
Clairement oui à moitié vide quand le risque est supérieur au gain.
En fait à mon sens verre vide car l’apport est quasi nul pour une perte de propriété complète
Le seul qui gagne quelque chose c’est Zukie
@franckmac3
Tu as peut-être raison sur le principe.
Mais le contraire serait mieux? Laisser circuler de « fausses » photos comme si elles étaient vraies?
Cela dit, les faux comptes pullulent sur tous les réseaux sociaux, ainsi que les fausses nouvelles. Ils ne semblent pas mettre beaucoup d’effort pour les faire disparaître, même s’ils disent le faire.
@Artefact3000
« Laisser circuler de « fausses » photos comme si elles étaient vraies? » honnêtement si quelqu’un génère une image avec Dall-e ou si il la crée avec n’importe quel autre outil c’est son imagination non ?
Il n’y a que les deep fake qui sont problématiques et pourquoi faire plus confiance à Facebook dont le seul but est juste d’alimenter son IA avec vos photos pour la faire progresser 🤔 ?
Ça va aussi marquer toutes les images Photoshopees leur truc. Donc 90% des images, non ?
La photo en exemple montre les progrès de l’IA en la matière. La fille a un visage complètement inexpressif, elle et l’ours ne regardent pas dans la même direction, l’ours a un sac à dos… mais de loin la photo semble assez réelle et il faut être de plus en plus attentif pour ne pas se faire prendre
@ian38
“La photo en exemple montre les progrès de l’IA en la matière. La fille a un visage complètement inexpressif, elle et l’ours ne regardent pas dans la même direction, l’ours a un sac à dos… mais de loin la photo semble assez réelle et il faut être de plus en plus attentif pour ne pas se faire prendre”
C’est vraiment le sac à dos le problème (on voit encore trop d’erreurs de raccord de ce type). Pour le visage inexpressif, c’est très commun, tout comme les animaux qui ne fixent pas l’objectif mais regardent ailleurs (un chien/chat qui fixe une lentille quelques secondes sans broncher, ça se fait pas du premier coup, alors un ours lol).
ah bon ça a pas de sac à dos un ours...?
> La fille a un visage complètement inexpressif
C'est essentiel dans la mode où c'est le vêtement qu'il faut mettre en valeur.
Si on pouvait aussi en finir avec les "visuels non contractuels" dans les
arnapubs.Pour ceux qui ne comprennent pas, entre autre, mes craintes par rapport aux IA je vais expliquer mon cas particulier et je ne vais pas parler des autres domaines
Je suis sur des forums (sérieux professionnels) pour les plantes rares et il y a des rubriques d'identification, jusqu'à présent, les gens montraient des vraies plantes mais, depuis cette année ça n'arrête pas avec des plantes avec des fleurs en forme de nounours ou de chats sans parler de toutes les merdes qu'on peut imaginer ! Je suis très pointu dans mon domaine mais je ne connais pas tout et, dernièrement j'ai moi même été dupé par 2 photos ! Alors les plantes ne vous intéressent peut être pas mais, dans mon domaine, c'est GRAVE ! Je n'imagine donc même pas ce que cela pourrait être dans des secteurs bien plus sérieux voire sécuritaires .... car il y a toujours un tas d'esprits malsains qui trouvent et savent très bien quoi faire pour foutre la pagaille et cela peut être très grave et même dangereux
Pour ma part ca me fait très peur et pour reprendre le terme peu élogieux d'un commentaire hier je ne vois pas en quoi cela pourrait être pathétique de vouloir exprimer simplement nos craintes et nos angoisses !
La grande question à se poser, c'est à partir de quand on estime qu'une image est trafiquée par une IA.
De mon point de vue, les modes nuits en font parties, et en allant plus loin, n'importe quel algo qui touche aux pixels sont des images trafiquées. En fait, il n'y aurait que l'argentique sur lequel on pourrait débattre de la véracité.
Prenez une photo avec un Oppo/Samsung/Pixel/Iphone, et vous aurez 4 images très différentes, vous aurez 4 images trafiquées par des algo pour "améliorer" la réalité.
@debione
Lorsque du contenu a été retiré ou ajouté et n’a pas été capturé par une lentille, je dirais. Car plusieurs photos prises en mode burst, superposées, où on joue avec des filtres (expo, luminosité, contraste, saturation, vibrance, etc.), c’est pas traffiqué, c’est de la lumière. La photo dans l’article en revanche a été créée ex nihilo.