ChatGPT a mis au point un redoutable malware, repéré par un chercheur

11 avril 2023 à 11h20
31
© Pexels / Sora Shimazaki
© Pexels / Sora Shimazaki

Un chercheur en cybersécurité a pu contourner les sécurités de ChatGPT et lui faire écrire un programme malveillant non détecté par les antivirus.

Certains hackers pourraient tout à faire contourner les sécurités mises en place pour éviter les requêtes mal intentionnées sur ChatGPT. C'est du moins ce qu'illustre cette nouvelle trouvaille que l'on doit à Aaron Mulgrew, un chercheur en cybersécurité qui a réussi à faire créer à ChatGPT un programme malveillant.

Segmenter sa demande pour la rendre inoffensive aux yeux de ChatGPT

Pour contourner les barrières de ChatGPT et lui faire ériger un redoutable malware de toutes pièces, Mulgrew a segmenté ses requêtes de façon à les rendre inoffensives, du moins en apparence. Si le chercheur avait demandé à l'IA de créer un virus informatique en exposant ses intentions de façon claire, il est évident que sa demande aurait été refusée. En revanche, en exprimant sa demande de façon décomposée, Mulgrew a pu par la suite assembler les différents extraits de code générés par ChatGPT.

D'un point de vue concret, le malware généré a pour vocation de voler les données de la machine infiltrée, et ce, en toute discrétion. Celui-ci, dissimulé dans un logiciel d'économiseur d'écran pour PC, s'exécute après une courte pause afin de passer sous les radars. Le malware se met alors en charge de dérober les documents Word et PDF présents sur l'ordinateur. Le butin numérique est divisé en fragments et est caché au sein même des images du logiciel précédemment téléchargé (l'économiseur d'écran). Le tout est ensuite envoyé sur un dossier Google Drive, un protocole permettant d'être plus discret et d'éviter d'être détecté par le système de protection antivirus de l'ordinateur visé.

© Vitor Miranda / Adobe Stock
© Vitor Miranda / Adobe Stock

Quelques heures pour créer un malware indétectable par les antivirus

Aaron Mulgrew indique avoir envoyé le code du malware sur la plateforme VirusTotal qui permet d'analyser des fichiers et de détecter les éventuels codes sources malveillants. Seulement cinq fournisseurs sur soixante ont marqué le programme généré par ChatGPT comme suspicieux. Toujours par le biais du chatbot d'OpenAI, Mulgrew a effectué quelques modifications mineures sur le code jusqu'à le rendre indétectable.

Le chercheur explique qu'en envoyant les bonnes requêtes à ChatGPT et sans écrire la moindre ligne de code, son équipe a pu concevoir un programme malveillant avancé en seulement quelques heures. Sans avoir recours à un tel outil d'IA, la même tâche aurait été accomplie en plusieurs semaines et aurait nécessité l'intervention d'une équipe de 5 à 10 développeurs, d'après les estimations d'Aaron Mulgrew. Un tel étalement dans le temps s'explique par le fait que le malware mis au point se veut actuellement indétectable par les logiciels antivirus.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Source : Tom's Guide

Florent Lanne

Rédacteur web passionné par le digital, les objets et les services innovants. Je passe la plupart de mon temps à ratisser la toile à la recherche de nouvelles trouvailles liées au high-tech.

Lire d'autres articles

Rédacteur web passionné par le digital, les objets et les services innovants. Je passe la plupart de mon temps à ratisser la toile à la recherche de nouvelles trouvailles liées au high-tech.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (31)

vidarusny
Oui enfin, si vous demandez a des développeurs de faire des bout de code segmenter pour les réunir à la fin… ils vont aussi faire des malware "à l’insu de leur plein gré ".
romain280
Leur IA en + d’avoir des biais politiques elle nous fais des virus faits maison<br /> Ca commence à faire beaucoup. Pas très Charlie tout ça
ABC
Exactement comme les terroristes segmentent la conception d’une bombe artisanale, en fragmentant le process. Chaque composante prise séparément ne ferait pas de mal à une mouche. Mais entres des mauvaises mains ça peut faire BOOM! <br /> Même plus besoin d’aller sur le dark web.<br /> On est loin du monde merveilleux où l’IA bienveillante détecte des maladies rares sur des radios ou aide à lutter contre l’illettrisme. Des fonctions bénéfiques marginales qui risquent de n’être que des cache-misères pour l’immense majorité des utilisations qui seront toxiques, complotistes, nuisibles ou criminelles.<br /> L’outil idéal pour tous les tarés. Avec une force décuplée en donnant le pouvoir de conception à des gens qui n’auraient jamais pu nuire sans ces IA. Les fake news et autres complotismes qui ont déjà fait vaciller des démocraties sur le web 2.0 ne ressembleront qu’à des bombinettes ou des pétards mouillés en comparaison. Surtout quand les IA spécialisées dans un domaine seront utilisées de façon complémentaires. Donc demain.<br /> Des news du genre à propos des IA, on va en avoir de plus en plus. Arrêter le monstre avant qu’il ne nous échappe complètement.
ABC
vidarusny : « Oui enfin, si vous demandez à des développeurs de faire des bouts de code segmentés pour les réunir à la fin… ils vont aussi faire des malwares à l’insu de leur plein gré. »<br /> Faux et fallacieux. 99,99% des dév en question ne sauront pas le faire. Les 0,01 restants travaillent pour des gouvernements, des institutions cadrées, ou sont déjà dans l’illégalité quand ce n’est pas pour des états criminels comme la Russie ou l’Iran. Autant vendre des kits pour fabriquer des armes et des bombes dans les supermarchés. Vous vous attendez à quoi ?<br /> L’IA va décupler ce pouvoir de nuisance. Elle apporte des compétences aux déséquilibrés, aux criminels et aux terroristes, qu’ils n’auraient jamais pu avoir sans. Ce ne sont pas les esprits chagrins qui manquent. Même piètres développeurs.<br /> C’est une arme nouvelle et extrêmement redoutable dans la guerre asymétrique. Il n’y a même pas de débat, sauf à être aveugle, raisonner tout de travers et en creux. En clair un truc pour les nuisibles et les tarés.
ar-s
Ou un super outil pour assister un programmeur comme pour la majorité des utilisateurs qui l’utilisent ainsi. Ou pour essayer de comprendre une panne, pour faire une recette, pour x ou y autre raisons… C’est pas l’outil le soucis hein…
ABC
Si vous pouvez réparer votre vélo avec une mitraillette accessible à tous, c’est pas l’outil le souci hein…<br /> Il faut encadrer pour certains usages (santé, sciences… ) et légiférer pour le reste. En clair, bloquer ces outils pour l’essentiel.
sylvio50
Ce n’est pas ce qu’il dit.<br /> Il dit que la malveillance est dans l’organisateur du virus.<br /> Ici, c’est le chercheur, mais ça pourrait être un gouvernement ou autre.
ABC
Merci de l’explication de texte. Que je vous envoie en retour.<br /> C’est justement ce que j’explique, si vous avez la volonté de comprendre. Ces outils donnent des capacités de nuisances aux tarés qui sans ça, ne peuvent pas faire du tort (ou alors avec beaucoup plus de moyens et de compétences, ce qui limite le nombre de candidats).<br /> Regardez ce que donne la vente d’armes accessible à tous aux USA. 180 morts quotidiens. Soit, 1 Bataclan par jour. C’est beau le libertarisme…<br /> L’IA est une arme. Mise entre les mains des malfaisants, ça décuple leurs capacités de nuisances. Même avec des QI de 107.<br /> Sauf à être pro NRA, pro Russe, pro dictature, anti démocratie ou juste haineux de son prochain, on ne met pas des armes à la disposition de tous. La majeure partie des IA doivent être restreintes à des usages spécifique et très encadrés. Elles n’ont rien à faire accessibles à tous sur le web. Du moins, pas en l’état actuel.
Francis7
Je pense aussi que ce n’est pas l’outil, le souci, c’est l’usage que l’on en fait. Il y aura toujours des antisociaux et des psychopathes ne serait-ce que sur la route du super-marché.<br /> Il faut faire attention et prendre ses précautions comme d’habitude face au danger des virus : ne pas fréquenter certains sites, ne pas télécharger des choses qui ne sont pas de source fiable etc…
ABC
Donc, distribution d’armes pour tous. C’est en lisant ce genre de commentaires qu’on réalise que légiférer et partiellement interdire n’est pas une option, mais une obligation.
Francis7
Je suis pour le fait de légiférer à quelques niveaux mais pas pour interdire ChatGPT complètement. Et puis ChatGPT, ce n’est pas comme distribuer des armes à tous ! <br /> Cela viendrait même pas à l’esprit de la plupart des gens.
ABC
Francis7:<br /> Et puis ChatGPT, ce n’est pas comme distribuer des armes à tous !<br /> Mettre à la disposition de chacun un outil qui permet de concevoir aisément des outils virtuels ou réels, même avec 0 compétence en développement, en conception d’armes physiques ou de désinformation, c’est mettre à la disposition de tous une arme qui peut attaquer les citoyens, les institutions, les entreprises, les démocraties, manipuler, nuire et tuer. De façon directe ou indirecte. On a déjà assez du web 2.0.<br /> Francis7:<br /> Cela viendrait même pas à l’esprit de la plupart des gens.<br /> La Russie, l’Iran, la Corée du Nord et les ennemis de la démocratie n’attendent que ça. D’ailleurs ils sont déjà à l’œuvre et seraient ravis d’avoir à leur service des milliers de petites mains armées de ces IA, pour faire le sale boulot à leur place.<br /> De toute façon, l’interdiction de certaines IA au public va tomber dans de nombreux pays. L’Italie, peut-être l’Allemagne et bientôt beaucoup d’autres on déjà entamé le process. Même aux USA ces IA font débat. Et même le concepteur de ChatGPT a alerté sur les dangers de cet outil et la probabilité qu’il échappe complètement à son créateur.
ar-s
C’est une IA. Tout ce qu’elle pond, un mec mal intentionné trouvera ses infos sur le web, peut être en plus de temps mais arrivera au même résultat, avec même plus de compréhension car il y aura passé plus de temps. Des générateurs de malware, ça existe depuis belle lurette hein… L’IA n’a pas créer un malware, le mec lui a demandé de faire un bout de code pour ceci, un pour cela etc… Comment voulez vous empêcher cela.<br /> Si vous pouvez réparer votre vélo avec une mitraillette accessible à tous, c’est pas l’outil le souci hein…<br /> Non mais avec une clé à molette je peux dévisser un écrou. Et puis je peux aussi ouvrir un crane… Donc non ce n’est pas la faute de l’outil.
ABC
ar-s:<br /> C’est une IA. Tout ce qu’elle pond, un mec mal intentionné trouvera ses infos sur le web, peut être en plus de temps mais arrivera au même résultat<br /> Faux.<br /> Non un quidam qui est une brêle en informatique ne pourra pas concevoir un outil extrêmement pointu de piratage sans ces IA. Même pas en rêve.<br /> Idem pour la désinformation en temps réel, pondre une flopée d’images fausses dans le but de manipuler ne s’improvise pas, sauf à avoir une armée d’infographistes anti démocratie sous la main pour pas un rond. Bon courage pour le recrutement. Vous vous trompez complètement et n’avez pas saisi la puissance de ces outils.<br /> Essayez de faire ce que vous dites. Pondez-nous un outil de piratage en quelques heures ou une campagne complète de dénigrement en quelques minutes avec le verbatim et les images adéquats. Si d’ici 1 à 2 heures vous n’avez pas réussi sans les IA de toutes natures, vous comprendrez que votre discours ne tient pas. Et s’il vous faut des semaines, voir des mois en éclatant votre PEL, ça arrivera trop tard.<br /> ar-s:<br /> Donc non ce n’est pas la faute de l’outil.<br /> Si les IA avaient la capacité de nuisance d’une clé à molette, le souci ne se poserait pas.<br /> Ce n’est pas de la faute de l’arme si des nuisibles détruisent des citoyens ou renversent des démocraties. Donc autant distribuer les armes dans les supermarchés… On voit ce que ça donne de l’autre côté de l’Atlantique. Aussi bien pour ce qui est des armes réelles que virtuelles. Dans un cas comme dans l’autre, compter sur la responsabilité de chacun est un leurre. C’est aux états de légiférer et c’est ce qu’il va se passer.
vidarusny
ni faux ni fallacieux tu le reprends même avec ton exemple et les bombes…<br /> L’intelligence artificielle n’est dans le cas cité ni meilleur ou pire que l’humain, elle ne peux pas présumé de l’utilisation de ces réponses. Sinon elle ne dirait ni ferait jamais rien.<br /> Exemple un politique ou tu tires une phrase d’un discours pour le décrédibiliser… l’aurait il fait si il pouvait anticipé son utilisation…<br /> On parle d’un outils, le bien ou le mal dépend ce que l’on fait de l’outils… alors c’est un discours du lobby des armes à feu américain, alors ce n’est pas bien… mais combien de couteaux tuent à travers son utilisateur ? devons nous interdire tous les couteaux ?<br /> Tu parles de risque complètement nuisible et crédible, mais ça ne veut pas dire que l’outils est à jeter, comme le bébé et l’eau du bain…<br /> J’ai lu des articles plutôt positif d’un point de vue santé, notamment dans l’analyse des radios… ça peut sauver des vies.<br /> La encore ce n’est pas l’outils le problème, c’est bien qui comment et pourquoi on l’utilise qui compte. Effectivement, je ne sui pas persuadé que l’ouvrir à tout le monde, au moins au début, soit une bonne idée.<br /> tu dis :<br /> L’IA est une arme. Mise entre les mains des malfaisants, ça décuple leurs capacités de nuisances. Même avec des QI de 107.<br /> tu prends déjà parti !! pour moi je dirai :<br /> L’IA est un outil. Mise entre les mains des malfaiteurs c’est une armes, entre les mains des docteurs ça sauve des vies.<br /> Quand tu reprends « l’explication de texte » , tu veux nous dire quoi ? que tout le monde est en tueur en puissance ? que personnes ne sait raisonner ? quand tu dis « on ne met pas des armes à la disposition de tous », je prendrais l’exemple de l’arme nucléaire qui ne sont que dans le mains de certains, et qui font trembler le monde tout autant. Je me demande donc qui sont les certains à qui tu accorderai ta confiance ?<br /> Enfin: « Non un quidam qui est une brêle en informatique ne pourra pas concevoir un outil extrêmement pointu de piratage sans ces IA » il ne t’aura pas échappé que le teste n’est pas effectué par une brêle informatique. Tout le monde n’est pas apte à faire un algorithme alors scinder cette algo pour en faire des bouts de code capable de déjoué des systèmes de sécurité sans même savoir comment fonctionne le dit système ??? Franchement non, il faut arrêter !<br /> Oui il y a un risque mais il faut arrêter le « tout le monde peux ». C’est loin d’être aussi simple, il faut aussi clairement des compétence. La on est clairement dans le yaquafontquon… Je t’accorde, comme le dit l’article que pour une personne ayant les compétence ça va plus vite, c’est déjà de trop, il faut faire en sorte que ça ne se reproduise pas.<br /> Quant à l’interdiction de certains états tu te glorifies que des démocraties interdisent l’outils à tous ? alors qu’en parallèle tu nous explique que les autres systèmes politiques sont le problème et qu’il ne vont pas l’interdire ? J’entends donc que la chine est un autre ? pourtant il sont à priori pas mal avancé sur l’IA … ça me parait déjà trop tard pour interdire.
ABC
vidarusny:<br /> L’intelligence artificielle n’est dans le cas cité ni meilleur ou pire que l’humain, elle ne peux pas présumé de l’utilisation de ces réponses. Sinon elle ne dirait ni ferait jamais rien.<br /> Sophisme. Ces IA elles, permettent d’être dans l’action en fourbissant les armes adéquates en temps réel ou à peine plus aux nuisibles. Une arme ne pense pas en effet.<br /> Si vous n’êtes pas capable de percevoir la dangerosité de ces outils, normal que vous prêchiez leur mise à disposition pour tous. Sauf que dans tous, ça inclue des milliers de gens ou d’entités criminelles qui sans ça ne pourraient nuire. Ça va de l’ado perturbé aux états terroristes. Et ça fait du monde.<br /> Il faut encadrer, légiférer et dans certains cas interdire. Que vous soyez d’accord ou pas. Ne serait-ce que pour vous protéger vous et chacun de nous. Citoyens, entités diverses, états…<br /> vidarusny:<br /> tu dis :<br /> L’IA est une arme. Mise entre les mains des malfaisants, ça décuple leurs capacités de nuisances. Même avec des QI de 107.<br /> tu prends déjà parti !! pour moi je dirai :<br /> L’IA est un outil. Mise entre les mains des malfaiteurs c’est une armes, entre les mains des docteurs ça sauve des vies.<br /> Vous ne m’avez même pas lu. C’est ce que j’explique, mais sans faire d’amalgame fallacieux comme vous.<br /> ABC:<br /> Il faut encadrer pour certains usages (santé, sciences… ) et légiférer pour le reste. En clair, bloquer ces outils pour l’essentiel.<br /> #dialoguedesourds
vidarusny
ABC:<br /> Si vous n’êtes pas capable de percevoir la dangerosité de ces outils, normal que vous prêchiez leur mise à disposition pour tous. Sauf que dans tous, ça inclue des milliers de gens ou d’entités criminelles qui sans ça ne pourraient nuire. Ça va de l’ado perturbé aux états terroristes. Et ça fait du monde.<br /> Je vois la dangerosité, mais je le redis l’exemple donné n’est pas donné à tous. C’est juste une réalité ! J’ai même dit que l’ouvrir à tous dans un premiers temps n’est pas forcément une bonne idée… mais vous n’avez pas du le lire non plus…<br /> Et non je ne fais pas d’amalgame, j’observe par contre que vous semblez vouloir faire peur et essayant de tout simplifier…<br /> Et non encadrer pour certains et légiférer pour les autres ne veut rien dire en soit, ce n’est ni interdire, ni résoudre les problème.<br /> Ensuite les sciences la santé et les trois petit points peu faire beaucoup de monde…<br /> Je suis d’accord sur le fait qu’il faut créer les barrières pour sécurisé l’ensemble. L’expérience dans l’article a justement pour rôle de savoir si des dérivent sont possible, et voir comment s’en protégé… complètement fermé tu ne crée pas de garde fou ! D’ou l’importance des tests réalisés, limité l’accès est une bonne chose au début, l’ouvrir au fur et a mesure permet d’évité les biais…
ABC
vidarusny:<br /> Je vois la dangerosité, mais je le redis l’exemple donné n’est pas donné à tous.<br /> Tous, donc une arme qui sera utilisée pour nuire avec des moyens décuplés jamais vu. Vous croyez quoi ? Que chacun sera bienveillant envers son prochain ? Bienvenu sur terre en 2023.<br /> vidarusny:<br /> Et non je ne fais pas d’amalgame, j’observe par contre que vous semblez vouloir faire peur et essayant de tout simplifier…<br /> L’évidence, la puissance de ces outils n’est plus à démontrer. Si même le créateur de ChatGPT donne l’alerte sur la dangerosité de cet outil, ça ne vous met pas la puce à l’oreille ?<br /> vidarusny:<br /> Et non encadrer pour certains et légiférer pour les autres ne veut rien dire en soit, ce n’est ni interdire, ni résoudre les problème.<br /> Ensuite les sciences la santé et les trois petit points peu faire beaucoup de monde…<br /> C’est vous qui simplifiez. Je n’ai jamais dit que c’était simple. C’est pourquoi il faudra un peu de temps. Que des géants de la tech américaine appellent à un moratoire (comme demandé par certains), le temps d’encadrer tout ça. Mais il ne faudra pas que ça prenne des années.<br /> vidarusny:<br /> Je suis d’accord sur le fait qu’il faut créer les barrières pour sécurisé l’ensemble.<br /> Finalement, nous ne sommes pas si en désaccord que ça. En effet, il faut placer des barrières.
vidarusny
J’ai jamais dit être en total désaccord, c’est le discours volontairement agressif et dépeignant un monde tout en noir qui me pose problème.<br /> Ce petit refrain qui semble dire que ceux qui ne sont pas d’accord avec toi ne savent pas réfléchir par exemple… Alors non je ne suis pas d’accord avec ton approche, ce qui ne veut pas dire que je vis dans le monde des bisounours. Un outils quel qu’il soit peut être dangereux comme il peut etre vraiment utile. Faut il s’interdire l’outil en question demande à bien poser le pour et le contre, et faut il l’avoir bien mesuré… Une fois mesuré on applique les garde fou nécessaire.<br /> Tu as pris l’exemple des armes à feu, l’exemple est bon, d’abord parce que des démocraties on fait des choix différents sur cet outils. Ensuite parce que les plus restrictifs sont quand même empêtrer dans des commerces illégaux ce qui pose la question du contrôle. Ensuite pour l’utilisation de conquête fait par certain et de défense pour d’autre…<br /> Que de nuance, et il en manque bien d’autre, pour un outils de toute façon créé pour tuer…<br /> Ce que n’est pas l’IA. tu pars du principe qu’elle est dors et déjà dévié a cette fonction, je pense que non et qu’il faut faire en sorte que ce ne soit pas le cas ! Je pense que c’est notre différence.
sylvio50
@ABC,<br /> Je ne suis pas totalement en désaccord avec toi, mais on sort du cadre de l’article là.<br /> Ici, il s’agissait de dire que découper un problème en de multiple sous-ensemble afin de le soumettre à un expert (ici, l’IA) puis le recombiner ensuite, est en majeur partie (plus de 90% ?) de la responsabilité de l’organisateur (découpeur/recombineur) plutôt que de l’expert.<br /> Après, il est évident qu’il y aura d’autre problèmes avec ChatGPT qui nuiront et il faudra légiférer, voir restreindre son utilisation avec le temps. Ca ne se fera pas en 3 mois.
ABC
vidarusny : « pas l’IA. tu pars du principe qu’elle est dors et déjà dévié a cette fonction, je pense que non et qu’il faut faire en sorte que ce ne soit pas le cas ! Je pense que c’est notre différence. »<br /> C’est le point de vigilance sur lequel nous sommes finalement tombés d’accord : encadrer.<br /> Pour ce qui est du potentiel de nuisance de ces outils, l’article ci-dessus n’est malheureusement qu’un exemple parmi déjà beaucoup d’autres. Dans tous les domaines. Alors que ces IA commencent seulement à émerger auprès du grand public (certaines existaient depuis des années dans les centres de recherche et pour des utilisations spécifiques).<br /> C’est peut-être à cause de tous ces dérapages, jusqu’à présent plus ou moins contrôlés, que les créateurs de ces IA font mine de donner l’alerte. Pour se dédouaner le jour ou ça va partir en vrille et se généraliser. Alors le web nous enverra l’image d’un monde dystopique et factice où plus rien n’a de valeur et où les manipulateurs de tous ordres s’en donneront à cœur joie.<br /> Il n’y a qu’à voir dans le monde actuel, celui du web 2.0, comment des outils comme les réseaux sociaux ont pu être manipulés pour influer sur des élections ou attaquer des personnes. Avec les IA, on passe à la vitesse supérieure et là, ce n’est pas viable.
MattS32
ABC:<br /> Non un quidam qui est une brêle en informatique ne pourra pas concevoir un outil extrêmement pointu de piratage sans ces IA. Même pas en rêve.<br /> Et il ne pourra pas non plus avec. Même pas en rêve. Parce qu’il ne saura ni quoi demander à l’IA pour obtenir les pièces dont il a besoin (il ne sait même pas quelles sont les pièces dont il a besoin) ni comment assembler ces pièces ensemble (avec les adaptations nécessaires pour que ça marche…). Tout ça, ça nécessite déjà à la base des connaissances avancées sur ce qu’on veut… En l’occurrence, c’est bien un expert en sécurité qui a réussi à faire pondre des briques de malwares à ChatGPT, pas une brêle en informatique… Demande à une vraie brêle en informatique de le faire. Et là tu verras que non, il n’y arrivera pas.<br /> Pour la désinformation, c’est une autre affaire. Parce que là effectivement, ça ne demande pas forcément des compétences très poussées. Mais le quidam moyen aura quand même du mal à donner a « sa » création la visibilité qu’il faut. Car c’est ça le nerf de la désinformation, ce n’est pas la qualité du photo montage, on s’en passe très bien (y a qu’à voir le nombre de gens qui croient à la terre plate ou qu’on n’a pas marché sur la Lune…), c’est la diffusion de la fausse information. Une fausse information sans pouvoir de diffusion, ça reste bien sagement dans son coin. Comme les briques de malwares sans les connaissances pour les assembler…<br /> Accessoirement, pour en revenir au cas du malware : écrire un malware basique comme celui qu’Aaron Mulgrew a fait, c’est à la portée de n’importe quel développeur. C’est juste un logiciel qui cherche les .doc/.docx/.pdf sur le disque dur et les envoie vers un Google Drive, le tout caché dans un économiseur d’écran (qui est un exécutable comme un autre). Vraiment, un développeur qui n’est pas capable d’écrire un tel logiciel en moins d’une journée de travail, il ne mérite pas le titre de développeur…<br /> Après, il y a l’affinage pour ne pas être détecté par les anti-virus qui est sans doute plus compliqué (en l’occurrence, notamment le recours à la stéganographie… un truc dont la brêle lambda n’a même jamais entendu parler, donc aucune chance qu’il ait l’idée d’y recourir et demande à ChatGPT du code pour en faire…). Mais en même temps, la version de base qui échappait à plus de 90% des anti-virus, c’est déjà pas mal… Et si tu lis les explications de Aaron Mugler sur les solutions mises en œuvre pour rendre le code indétectable, tu verras que c’est bien lui qui a trouvé les solutions, en s’appuyant sur ses propres compétences et connaissances (et notamment, sur ses connaissances sur la façon de fonctionner de deux des anti-virus qui détectaient son malware), pour demander à Chat GPT d’écrire le code implémentant ces solutions… Bref, là encore, des solutions pointues obtenues par un demandeur pointu, pas par une brêle.<br /> La vraie difficulté ensuite, c’est surtout, comme pour la désinformation, de réussir à diffuser le malware… Et là-dessus, Chat GPT n’aide pas.
ABC
MattS32:<br /> Et il ne pourra pas non plus avec. Même pas en rêve. Parce qu’il ne saura ni quoi demander à l’IA pour obtenir les pièces dont il a besoin (il ne sait même pas quelles sont les pièces dont il a besoin) ni comment assembler ces pièces ensemble (avec les adaptations nécessaires pour que ça marche…). Tout ça, ça nécessite déjà à la base des connaissances avancées sur ce qu’on veut… En l’occurrence, c’est bien un expert en sécurité qui a réussi à faire pondre des briques de malwares à ChatGPT, pas une brêle en informatique… Demande à une vraie brêle en informatique de le faire. Et là tu verras que non, il n’y arrivera pas.<br /> Certes. En fonction de la requête, ça exige plus ou moins de compétences évidemment. Y compris pour la désinformation qui demande des connaissances pour sortir quelque chose de viable (ou qui en prend les atours), même avec l’IA.<br /> Ces outils abaissent le niveau des compétences requises, jour après jour. Ce qui était impossible hier le deviendra rapidement. Ce qui explose le nombre de candidats potentiels. Pour certaines tâches déjà, savoir écrire suffit, quand il y a quelques mois seulement c’était impensable.<br /> Les dérapages actuels sont des alertes. Plus ou moins contrôlées. Pour le moment. Quand ces outils seront dans de nombreux foyers, avec des excités derrière les claviers, ça ne pourra que devenir incontrôlable. Le web deviendra une jungle où la vérité et l’éthique auront une place encore plus relative qu’actuellement. D’où la nécessité de légiférer et d’encadrer.<br /> De façon plus générale, là où ça partira en vrille, c’est quand un grand nombre de données toxiques seront accessibles au plus grand nombre. Donc demain.<br /> Quant à la diffusion, rien de plus facile. Déjà avec le web 2.0 on constate que de tels contenus ont beaucoup plus de chances de circuler que du contenu sérieux. Plus c’est pourri, plus ça circule. Dans tous les domaines, les IA, couplées au dark web et au web 2.0, on un pouvoir de nuisance exponentiel.
qotzo
chatGPT, crée moi du code TRUC :<br /> qui va récupérer tous les document word sur un disque dur<br /> qui va ajouter la macro TRUC dans ces documents en auto exécutable<br /> et qui va écrire sur toutes les page du doc word TRUC WUZ HIRE, TRUC RULEZ<br /> En quoi c’est un virus ?<br /> Autre réflexion : ça rappelle mon patron qui me fait des specs à l’arrache, puis qui s’en accapare les mérites du programme une fois qu’il est fait et qu’il marche bien.
xavz78
Tout à fait d’accord avec vous. Les IA purement malveillantes ne semblent pas encore exister mais pour combien de temps ? La prudence, dans cette jungle qu’est internet, me semble être sage. Attention aux fausses bonnes idées dont l’enfer est pavé !
Alizee-en-String
Si tu lis bien, 5 antivirus ont jugé sa première ébauche de suspicieux, ce qui l’a « motivé » à affiner pour le rendre indétectable sur Virustotal. Donc les 5 qui le détectaient dans sa préversion…comment te dire…
Joel192
Les commentaires me font sourire. Il faut faire une loi…, il faut interdire…, il faut mettre des barrières…, etc… Nous avons des milliers de lois, de règlements, de principes, et l’application est très limitée et chaque jour nous voyons des exemples de transgressions. Donc je pose la question: comment faites vous pour faire appliquer des limites à un système qui agit mondialement? L’exemple des réseaux sociaux pourrait vous donner la réponse : « Ben on sait pas, et en fait on ne sait pas le faire ». Prenons juste l’exemple des feux rouges, postez vous à un carrefour et regardez. Transposez au monde entier.
Than
Mais… sérieusement ? C’est le titre qui est « malveillant ». <br /> Et littéralement « corrigé » dans la 1ère phrase qui le suit =&gt;<br /> « Un chercheur en cybersécurité a pu contourner les sécurités de ChatGPT et lui faire écrire un programme malveillant non détecté par les antivirus. »<br /> C’est le chercheur en cybersécurité qui a créé le programme. Via (grosse emphase sur le « via ») l’intermédiaire de ChatGPT (et de son ordinateur, et de son écran, et de sa chaise, et de son bureau, et de… vous voyez où je veux en venir ?).<br /> C’est ridicule de titrer ça.<br /> Et ça n’a absolument rien de nouveau. Depuis la sortie de cette IA le but du jeu est de contourner les « mesures » qui contraignent son usage.<br /> On peut très certainement lui faire écrire la pire constitution du monde possible, en contournant tout ce qui est à priori illégal. Devra-t-on alors titrer aussi faussement « ChatGPT a mis au point la pire constitution du monde pour le prochain dictateur, repérée par les ONG les plus vénères » ?
raymondp
Absolument d’accord.<br /> Toute cette opération ne me semble servir qu’à faire du buzz autour du chercheur et à faire parler de lui. Bon, apparemment ça marche.<br /> Visiblement, il n’aurai pas eu besoin de ChatGPT pour créer son virus, et il connait suffisamment bien comment fonctionnent les anti-virus pour pouvoir les contourner.<br /> On peut penser, à tort ou à raison, que les IAs sont dangereuses mais en l’occurrence l’expérimentation du chercheur n’a rien montré du tout dans ce sens.<br /> Comme l’a dit un visiteur, l’expérience ne montre pas que ChaGPT permet à une « brêle en informatique » de faire un virus non détectable.
Than
Tout à fait.<br /> Quelqu’un qui n’a pas le niveau, ni la volonté, ni l’idée, ne fera rien de l’outil !<br /> Si on me donnait une centrale nucléaire, je saurais pas quoi en faire ni la faire tourner (ça serait juste une catastrophe. :D).<br /> Si je devais opérer quelqu’un, et que je demandais à l’IA, je saurais pas non plus comment faire ça bien car j’ai pas du tout l’expertise pour ça.<br /> L’IA ne remplace pas l’expérience. Elle fait gagner du temps à ceux qui ont déjà des compétences dans le domaine où ils posent des questions. C’est là son intérêt, et son potentiel.<br /> Le jour où un gamin de 2 ans est capable de faire pondre un virus indétectable à une IA, alors on pourra rediscuter du danger du truc. Ou de la mauvaise sécurité générale en vogue, parce que si un gamin arrive à faire ça, pourquoi il n’y a pas eu quelqu’un pour faire exactement l’inverse et demander à l’IA un audit de sécu’ sur son système pour anticiper les défenses ?<br /> Il suffit de poser la question à l’envers… ou de tester son propre système. Puis de corriger.<br /> C’est pour ça qu’il faut poser l’inverse et son contraire à une IA. Pas uniquement dans le sens qui nous intéresse. Ça permet aussi de voir quand elle se rate.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet