Une nouvelle étude d’Adobe, intitulée “Future of Trust”, révèle que la population française est de plus en plus préoccupée par les fausses informations relayées au sein de la société et ne sait pas vraiment où trouver des faits et informations dignes de confiance sur Internet.
Près des trois quarts (73 %) des personnes interrogées estiment qu’il est difficile de contrôler la véracité du contenu numérique (vidéos, images) et 67 % craignent que de fausses informations et autres « deepfakes » ne perturbent les prochaines élections.
L’étude “Future of Trust” d’Adobe s’appuie sur une enquête réalisée auprès de 1 043 adultes résidant en France. Elle met en lumière les inquiétudes des Français à l’égard de la désinformation liée à l’IA.
« Nous sommes tous enthousiastes quant au potentiel de l’IA générative pour transformer la créativité et la productivité. En tant que leader dans le déploiement commercial d’une technologie IA, nous avons longuement étudié son impact sur la société.
commente Dana Rao, Executive Vice President, General Counsel and Chief Trust Officer at Adobe
Les résultats de cette étude le montrent : il est impératif d’informer les consommateurs sur les dangers des deepfakes et de fournir les outils qui leur permettent d’identifier ce qui est vrai.
A l’approche des élections, l’heure est venue d’adopter des technologies de protection comme les Content Credentials, afin de rétablir la confiance de la population à l’égard du contenu en ligne. »
Interdire l’IA aux politiques ?
Dans un climat d’érosion de la confiance dans les contenus numériques, les consommateurs se soucient de l’intégrité des élections.
Sur 10 personnes interrogées en France, sept (67 %) craignent que la désinformation n’influence les élections.
Une personne sur six (16 %) a vu du contenu généré par l’IA concernant des personnalités politiques au cours des six derniers mois.
Sans outils répandus pour les aider à discerner le vrai du faux, 78 % affirment qu’il devrait être interdit aux candidates et candidats à une élection de faire appel à l’IA générative dans leurs contenus de communication électorale.
Le flou sur la véracité des contenus numériques
La difficulté de vérifier les informations, imputable au manque de formation sur les outils.
73 % des personnes interrogées admettent éprouver des difficultés à vérifier si le contenu consulté sur Internet est fiable ou non.
85 % estiment qu’il est important de disposer d’outils permettant de s’assurer de la véracité du contenu.
Or, la moitié de l’échantillon (51 %) juge aujourd’hui impossible d’authentifier un contenu généré par l’IA.
Alors que seules 40 % des personnes ont utilisé des outils de recherche en ligne pour les aider à repérer les fausses informations, 19 % ont regardé des tutoriels vidéo.
Si la génération Z forme le groupe démographique le plus confiant en sa capacité à détecter les fausses informations, plus d’un de ses membres sur trois (36 %) admet avoir échangé des informations trompeuses au cours des six derniers mois (soit plus que toute autre tranche d’âge).
Les deux tiers des jeunes de la génération Z interrogés (65 %) reconnaissent avoir du mal à vérifier la fiabilité du contenu publié sur Internet.
Un besoin fort de régulation
La nécessité d’une coopération entre les entreprises technologiques et les pouvoirs public. Parallèlement, l’érosion de la confiance pousse les gens à quitter certaines plateformes où se propage la désinformation.
Lorsque de fausses informations circulent, 41 % des personnes interrogées estiment que la responsabilité incombe en premier lieu à celui ou celle qui a créé le contenu en question.
Cependant, 84 % préconisent une collaboration entre pouvoirs publics et entreprises technologiques pour réguler l’IA générative et empêcher son utilisation pour influencer les élections.
37 % ont cessé d’utiliser ou réduit leur utilisation de certains réseaux sociaux en raison de la quantité de fausses informations rencontrées.