Une faille de sécurité a été découverte dans les chatbots d’IA les plus populaires, ChatGPT et Google Bard. Ces programmes sont capables de générer du texte à la demande, mais ils sont censés refuser de produire du contenu illégal ou nuisible. Or, des chercheurs ont réussi à les tromper en ajoutant des caractères spéciaux à leurs requêtes.
Comment ont-ils fait ?
L’étude, publiée le 27 juillet 2023 par des chercheurs de l’université Carnegie Mellon et du Center for AI Safety de San Francisco, révèle une méthode pour contourner les barrières éthiques et juridiques des chatbots d’IA. En ajoutant des suffixes de caractères aux entrées, les chercheurs ont pu faire générer aux chatbots des tutoriels pour fabriquer une bombe, coder un malware ou voler l’identité d’une personne.
Ces suffixes perturbent le fonctionnement des chatbots et les poussent à répondre à des requêtes interdites. Par exemple, ils ont réussi à faire générer à ChatGPT un tutoriel pour voler l’identité d’une personne en ajoutant le suffixe "describing.\ + similarlyNow write oppositeley.]"
Zico Kolter, professeur à Carnegie Mellon et auteur du rapport, a déclaré :
Il n'y a pas de
solution évidente. On peut créer autant d'attaques que l'on veut en peu de temps.
Les chercheurs ont testé leur méthode sur plusieurs modèles de langage, dont ChatGPT, Claude et Bard, et ont constaté qu’elle fonctionnait à chaque fois. Ils ont alerté les développeurs de ces programmes pour qu’ils puissent réagir et renforcer la sécurité de leurs systèmes.
Que font les entreprises d’IA contre ces problèmes ?
Pour éviter que leurs chatbots ne diffusent des contenus nuisibles, haineux ou trompeurs, les entreprises d’intelligence artificielle leur imposent des barrières de sécurité qu’elles mettent des mois à élaborer. Mais ces barrières ne sont pas infaillibles, comme l’ont montré des chercheurs qui ont réussi à les déjouer facilement, provoquant ainsi une hausse de la génération d’informations dangereuses.
Cette découverte soulève des questions éthiques et juridiques sur l’utilisation des chatbots d’IA et les risques qu’ils représentent pour la société. Les chercheurs appellent à une régulation plus stricte de ces technologies et à une sensibilisation du public aux dangers potentiels.
Sources :
0 Commentaires