Connect with us

Vous cherchez quelque chose en particulier ?

Data

Quand les hallucinations de ChatGPT facilitent le travail des pirates

Si ChatGPT peut offrir des solutions de codage, sa tendance à créer des hallucinations offre des opportunités aux hackers…



Compte tenu de la prolifération rapide et généralisée de la technologie de l’IA pour pratiquement tous les cas d’utilisation professionnelle, de la nature des chaînes d’approvisionnement en logiciels et de l’adoption généralisée de bibliothèques de code open-source, Vulcan Cyber, le spécialiste mondial de l’automatisation de la remédiation, estime nécessaire d’alerter précocement les professionnels de la sécurité informatique et de la cybersécurité contre les dangers que peut présenter ChatGPT…



Quand ChatGPT hallucine

L’année dernière, des millions de personnes ont commencé à utiliser ChatGPT pour leurs activités professionnelles, constatant qu’il peut considérablement alléger leur charge de travail quotidienne. Cela dit, il y a quelques lacunes.

Nous avons vu ChatGPT générer des URL, des références et même des bibliothèques de code et des fonctions qui n’existent pas réellement.

Ces hallucinations LLM (large language model) ont déjà été signalées et peuvent être le résultat de vieilles données d’entraînement.

Si ChatGPT fabrique des bibliothèques de code (paquets), les pirates pourraient utiliser ces hallucinations pour diffuser des programmes malveillants sans recourir à des techniques familières telles que le typosquattage ou l’usurpation d’identité.

Ces techniques sont suspectes et déjà détectables.

Mais si un pirate peut créer un logiciel qui remplace les « faux » logiciels recommandés par ChatGPT, il pourrait être en mesure d’amener une victime à le télécharger et à l’utiliser.

L’impact de ce problème devient évident si l’on considère qu’alors qu’auparavant les développeurs cherchaient des solutions de codage en ligne (par exemple, sur Stack Overflow), beaucoup se tournent maintenant vers ChatGPT pour obtenir des réponses, créant ainsi une opportunité majeure pour les pirates.



La technique d’attaque – utiliser ChatGPT pour diffuser des programmes malveillants

Vulcan Cyber a identifié une nouvelle technique de diffusion de logiciels malveillants que nous appelons « AI package hallucination » (hallucination des logiciels d’IA).

Cette technique repose sur le fait que ChatGPT, et probablement d’autres plateformes d’IA générative, répond parfois à des questions avec des sources, des liens, des blogs et des statistiques imaginaires.

Elle génère même des correctifs douteux pour les CVE et, dans ce cas précis, propose des liens vers des bibliothèques de codage qui n’existent pas en réalité.

En utilisant cette technique, un pirate commence par formuler une question demandant à ChatGPT un logiciel qui résoudra un problème de codage. ChatGPT répond alors en proposant plusieurs programmes, dont certains n’existent peut-être pas.

C’est là que les choses deviennent dangereuses : lorsque ChatGPT recommande des logiciels qui ne sont pas publiés dans un dépôt de logiciels légitime (par exemple, npmjs, Pypi, etc.).

Lorsque le pirate trouve une recommandation pour un logiciel non publié, il peut publier son propre logiciel malveillant à la place.

La prochaine fois qu’un utilisateur pose une question similaire, il peut recevoir une recommandation de ChatGPT pour utiliser le programme malveillant existant…

Vulcan Cyber a ainsi pu recréer ce scénario spécifique en utilisant chatGPT:








# A lire aussi ...

Avis d'expert

Ces dernières années, les hackers ont pris conscience du pouvoir des médias et qu’ils avaient des moyens pour en tirer parti...

Insights

De quelles compétences et outils les marketeurs ont-ils besoin pour se démarquer en 2024 ? Brandwatch a interrogé plus de 300 experts en marketing*...

Insights

Entre craintes et méconnaissance, 81% des Français n'ont toujours pas essayé l'IA générative...

Social Media

84 % des marketeurs français utilisent déjà l’IA générative pour créer du contenu sur les réseaux sociaux.

Publicité