ChatGPT peut-il créer des logiciels malveillants ? Un test prouve que oui

Fox News rapporte que ChatGPT continue de susciter la controverse dans le monde de la technologie, un utilisateur affirmant avoir créé un puissant logiciel d’extraction de données.

Le test privé de Mulgrew, qui n'a pas été rendu public, met en évidence les dangers du ChatGPT. .
Le test privé de Mulgrew, qui n'a pas été rendu public, met en évidence les dangers du ChatGPT. .

Un chercheur en sécurité de Forcepoint, Aaron Mulgrew, a expliqué comment le chatbot génératif d’OpenAI est capable de créer des logiciels malveillants. Le chercheur a utilisé une faille pour contourner les protections de ChatGPT destinées à bloquer les utilisateurs l’IA pour créer des codes malveillants. Selon Mulgrew, après avoir créé le code avec des lignes séparées, il a pu compiler les fonctions en un exécutable indétectable de vol de données.

Fox News rapporte que la création de ce logiciel malveillant sophistiqué a été réalisée sans l’aide d’une équipe de hackers, Mulgrew lui-même n’a pas eu à écrire une seule ligne de code. Le test privé de Mulgrew, qui n’a pas été rendu public, met en évidence les dangers du ChatGPT. Fox News rapporte que Mulgrew, qui prétend ne pas avoir d’expérience de codage avancé, a pu contourner les mesures de sécurité de ChatGPT avec un simple test.

Le logiciel malveillant créé par Mulgrew analyse les fichiers à la recherche de données qui pourraient être volées sur un appareil infecté. Le programme décompose ensuite les données, les cache dans d’autres images et les télécharge dans un dossier Google Drive. Fox News rapporte qu’en utilisant des messages simples, Mulgrew a pu utiliser ChatGPT pour renforcer et affiner le code pour le dissimuler à la détection. Inquiétant.

Vous êtes hors-ligne
Connexion rétablie...