La boîte de Pandore : Comment les modèles volumineux non restreints menacent la sécurité des Crypto

6/10/2025, 1:50:06 AM
Intermédiaire
IA
Avec la prolifération des grands modèles open-source, des "outils d'IA non restreints" comme WormGPT et FraudGPT sont détournés pour générer des e-mails de phishing, rédiger des contrats malveillants et manipuler des communautés d'utilisateurs, posant une menace sérieuse pour la sécurité de l'industrie de la Crypto. Cet article détaille les principes, les usages et les contre-mesures de ces modèles, tirant la sonnette d'alarme pour les praticiens du Web3.

Des séries GPT d'OpenAI à Gemini de Google, en passant par divers modèles open-source, l'intelligence artificielle avancée transforme profondément notre travail et notre mode de vie. Cependant, parallèlement aux avancées technologiques rapides, un côté sombre préoccupant émerge progressivement : la montée de modèles de langage de grande taille sans restriction ou malveillants.

Le soi-disant LLM sans restrictions fait référence aux modèles linguistiques qui sont spécifiquement conçus, modifiés ou "débridés" pour contourner les mécanismes de sécurité intégrés et les contraintes éthiques des modèles grand public. Les développeurs de LLM grand public investissent généralement des ressources importantes pour empêcher que leurs modèles soient utilisés pour générer des discours de haine, des informations fausses, du code malveillant ou fournir des instructions pour des activités illégales. Cependant, ces dernières années, certaines personnes ou organisations ont commencé à rechercher ou à développer des modèles sans restrictions pour des motifs tels que la cybercriminalité. À la lumière de cela, cet article examinera les outils typiques de LLM sans restrictions, présentera leur abus dans l'industrie de la cryptographie et discutera des défis de sécurité connexes et des réponses.

Comment les LLMs non restreints peuvent-ils être malveillants ?

Les tâches qui nécessitaient autrefois des compétences professionnelles, telles que l'écriture de code malveillant, la création d'e-mails de phishing et la planification d'escroqueries, peuvent désormais être facilement réalisées par des personnes ordinaires sans aucune expérience en programmation grâce à l'assistance de LLMs non restreints. Les attaquants n'ont besoin que d'obtenir les poids et le code source des modèles open-source, puis de les ajuster sur des ensembles de données contenant du contenu malveillant, des déclarations biaisées ou des instructions illégales pour créer des outils d'attaque personnalisés.

Ce modèle a donné lieu à de multiples risques : les attaquants peuvent « modifier magiquement » les modèles en fonction de cibles spécifiques pour générer un contenu plus trompeur, contournant ainsi les examens de contenu et les restrictions de sécurité des LLMs conventionnels ; le modèle peut également être utilisé pour générer rapidement des variantes de code pour des sites Web de phishing ou adapter des textes d'escroquerie pour différentes plateformes de médias sociaux ; par ailleurs, l'accessibilité et la modifiabilité des modèles open-source continuent de favoriser la formation et la diffusion d'un écosystème IA souterrain, fournissant un terreau pour les transactions illégales et le développement. Voici une brève introduction à ces LLMs non restreints :

WormGPT : Version Noire GPT

WormGPT est un LLM malveillant vendu ouvertement sur des forums souterrains, dont les développeurs affirment explicitement qu'il n'a aucune restriction éthique, en faisant une version noire du modèle GPT. Il est basé sur des modèles open-source comme GPT-J 6B et formé sur une grande quantité de données liées aux logiciels malveillants. Les utilisateurs doivent payer un minimum de 189 $ pour obtenir un accès d'un mois. L'utilisation la plus notoire de WormGPT est de générer des emails d'attaque de compromis d'email professionnel (BEC) et des emails de phishing hautement réalistes et convaincants. Ses abus typiques dans le domaine de l'encryption incluent :

  • Générez des e-mails/messages de phishing : Imitez les échanges de Crypto, les portefeuilles ou des projets bien connus pour envoyer des demandes de "vérification de compte" aux utilisateurs, les incitant à cliquer sur des liens malveillants ou à divulguer des clés privées/phrases de graine ;
  • Écriture de code malveillant : Aider des attaquants moins techniquement compétents à écrire du code malveillant qui vole des fichiers de portefeuille, surveille le presse-papiers, enregistre les frappes, etc.
  • Conduire des arnaques automatisées : Répondre automatiquement aux victimes potentielles, les guidant à participer à de fausses airdrops ou projets d'investissement.


DarkBERT : une épée à double tranchant pour le contenu du dark web

DarkBERT est un modèle de langage développé en collaboration entre des chercheurs de l'Institut avancé de science et de technologie de Corée (KAIST) et S2W Inc., spécifiquement pré-entraîné sur des données du dark web (telles que des forums, des marchés noirs et des informations divulguées) dans le but d'aider les chercheurs en cybersécurité et les agences de law enforcement à mieux comprendre l'écosystème du dark web, à suivre les activités illégales, à identifier les menaces potentielles et à recueillir des informations sur les menaces.

Bien que DarkBERT ait été conçu avec de bonnes intentions, le contenu sensible qu'il détient concernant le dark web, y compris les données, les méthodes d'attaque et les stratégies de trading illégales, pourrait avoir de graves conséquences si des acteurs malveillants devaient l'obtenir ou utiliser des technologies similaires pour entraîner des modèles volumineux sans restriction. Son utilisation abusive potentielle dans des scénarios de cryptage inclut :

  • Mise en œuvre de scams précis : collecte d'informations sur les utilisateurs de l'encryption et les équipes de projet pour des fraudes par ingénierie sociale.
  • Imitation du modus operandi criminel : Réplication de tactiques éprouvées de vol de crypto-monnaie et de blanchiment d'argent sur le dark web.

FraudGPT : le couteau suisse de la fraude en ligne

FraudGPT prétend être une version améliorée de WormGPT, offrant des fonctionnalités plus complètes, principalement vendu sur le dark web et les forums de hackers, avec des frais mensuels variant de 200 $ à 1 700 $. Ses abus typiques dans le scénario de l'encryption incluent :

  • Projets de cryptographie contrefaits : Générer de faux livres blancs, sites Web officiels, feuilles de route et contenus marketing pour mettre en œuvre des ICO/IDO frauduleux.
  • Générer en masse des pages de phishing : Créez rapidement des pages de connexion imitant celles des bourses de Crypto bien connues ou des interfaces de connexion de portefeuille.
  • Activités de bots sur les réseaux sociaux : production de masse de faux commentaires et de propagande, promotion de tokens frauduleux ou discréditation de projets concurrents.
  • Attaques d'ingénierie sociale : Ce chatbot peut imiter des conversations humaines, établir une confiance avec des utilisateurs non méfiants et les inciter à divulguer involontairement des informations sensibles ou à effectuer des actions nuisibles.

GhostGPT : Un assistant IA sans contraintes morales

GhostGPT est un chatbot IA explicitement positionné comme n'ayant aucune contrainte éthique, avec des abus typiques dans le scénario de la crypto incluant :

  • Attaques de phishing avancées : générez des e-mails de phishing très réalistes qui usurpent l'identité d'échanges grand public pour émettre de fausses demandes de vérification KYC, des alertes de sécurité ou des notifications de gel de compte.
  • Génération de code malveillant pour les contrats intelligents : sans aucune connaissance en programmation, les attaquants peuvent rapidement générer des contrats intelligents contenant des portes dérobées cachées ou une logique frauduleuse en utilisant GhostGPT, pour des arnaques de type Rug Pull ou des attaques contre des protocoles DeFi.
  • Voleur de cryptocurrency polymorphe : Génère des logiciels malveillants avec des capacités de morphing continu pour voler des fichiers de portefeuille, des clés privées et des phrases mnémoniques. Ses caractéristiques polymorphes rendent difficile la détection par les logiciels de sécurité basés sur des signatures traditionnelles.
  • Attaques d'ingénierie sociale : En combinant des scripts générés par l'IA, les attaquants peuvent déployer des bots sur des plateformes comme Discord et Telegram pour inciter les utilisateurs à participer à de fausses émissions de NFT, à des airdrops ou à des projets d'investissement.
  • Escroqueries deepfake : En conjonction avec d'autres outils d'IA, GhostGPT peut être utilisé pour générer les voix de faux fondateurs de projets de Crypto, d'investisseurs ou d'exécutifs d'échange, mettant en œuvre des escroqueries téléphoniques ou des attaques de compromission d'emails professionnels (BEC).

Venice.ai : Risques potentiels d'un accès non censuré

Venice.ai offre un accès à divers LLMs, y compris certains modèles avec moins de contrôle ou des restrictions plus lâches. Il se positionne comme une passerelle ouverte pour que les utilisateurs explorent les capacités de différents LLMs, offrant des modèles à la pointe de la technologie, précis et non modérés pour une expérience IA véritablement sans restrictions, mais il peut également être exploité par des acteurs malveillants pour générer du contenu nuisible. Les risques associés à la plateforme incluent :

  • Contourner la censure pour générer du contenu malveillant : Les attaquants peuvent utiliser des modèles avec moins de restrictions sur la plateforme pour créer des modèles de phishing, de fausse propagande ou des idées d'attaque.
  • Abaisser le seuil pour l'ingénierie des invites : même si les attaquants ne possèdent pas de compétences avancées en « jailbreak » des invites, ils peuvent facilement obtenir des résultats qui étaient à l'origine restreints.
  • Itération de script d'attaque accélérée : Les attaquants peuvent utiliser cette plateforme pour tester rapidement les réponses de différents modèles aux commandes malveillantes, optimisant ainsi les scripts de fraude et les méthodes d'attaque.

Écrit à la fin

L'émergence des LLMs non restreints marque un nouveau paradigme d'attaques sur la cybersécurité qui est plus complexe, évolutif et automatisé. Ces modèles abaissent non seulement le seuil des attaques, mais introduisent également de nouvelles menaces qui sont plus sournoises et trompeuses.

Dans ce jeu continu d'offense et de défense, toutes les parties de l'écosystème de sécurité doivent travailler ensemble pour faire face aux risques futurs : d'une part, il est nécessaire d'augmenter l'investissement dans les technologies de détection pour développer des systèmes capables d'identifier et d'intercepter le contenu de phishing généré par des LLM malveillants, exploitant les vulnérabilités des contrats intelligents et le code malveillant ; d'autre part, des efforts doivent également être déployés pour promouvoir la construction de capacités anti-jailbreaking des modèles et explorer des mécanismes de filigrane et de traçage pour suivre les sources de contenu malveillant dans des scénarios critiques tels que la finance et la génération de code ; en outre, un cadre éthique solide et un mécanisme de régulation doivent être établis pour limiter fondamentalement le développement et l'utilisation abusive de modèles malveillants.

Déclaration:

  1. Cet article est reproduit de [ TechFlow] Le droit d'auteur appartient à l'auteur original [TechFlow] S'il y a des objections à la réimpression, veuillez contacter Équipe Gate LearnL'équipe le traitera aussi rapidement que possible conformément aux procédures pertinentes.
  2. Avertissement : Les opinions et points de vue exprimés dans cet article ne sont ceux que de l'auteur et ne constituent aucun conseil en investissement.
  3. Les autres versions linguistiques de l'article sont traduites par l'équipe de Gate Learn, sauf indication contraire.GateDans de telles circonstances, il est interdit de copier, de diffuser ou de plagier des articles traduits.

Partager

Calendrier Crypto

Mises à Jour du Projet
Etherex lancera le jeton REX le 6 août.
REX
22.27%
2025-08-06
Rare Dev & Governance Day à Las Vegas
Cardano organisera la Rare Dev & Governance Day à Las Vegas, du 6 au 7 août, avec des ateliers, des hackathons et des discussions en panel axés sur le développement technique et les sujets de gouvernance.
ADA
-3.44%
2025-08-06
Blockchain.Rio à Rio de Janeiro
Stellar participera à la conférence Blockchain.Rio, qui se tiendra à Rio de Janeiro, du 5 au 7 août. Le programme comprendra des discours d'ouverture et des tables rondes avec des représentants de l'écosystème Stellar en collaboration avec les partenaires Cheesecake Labs et NearX.
XLM
-3.18%
2025-08-06
Webinaire
Circle a annoncé un webinaire en direct intitulé « L'ère de la loi GENIUS commence », prévu pour le 7 août 2025, à 14h00 UTC. La session explorera les implications de la nouvelle loi GENIUS adoptée—le premier cadre réglementaire fédéral pour les stablecoins de paiement aux États-Unis. Dante Disparte et Corey Then de Circle dirigeront la discussion sur la manière dont la législation impacte l'innovation des actifs numériques, la clarté réglementaire et le leadership des États-Unis dans l'infrastructure financière mondiale.
USDC
-0.03%
2025-08-06
AMA sur X
Ankr organisera un AMA sur X le 7 août à 16h00 UTC, axé sur le travail de DogeOS dans la construction de la couche d'application pour DOGE.
ANKR
-3.23%
2025-08-06

Articles connexes

Qu'est-ce que Tars AI? Explorer le futur de l'IA et de l'intégration Web3
Avancé

Qu'est-ce que Tars AI? Explorer le futur de l'IA et de l'intégration Web3

Découvrez comment Tars AI comble le fossé entre l'IA et Web3, offrant des solutions évolutives et des outils innovants pour les applications décentralisées. Apprenez-en davantage sur ses principales fonctionnalités, ses avantages et son fonctionnement.
9/22/2024, 1:16:18 PM
Qu'est-ce que les récits Crypto? Top récits pour 2025 (MISE À JOUR)
Débutant

Qu'est-ce que les récits Crypto? Top récits pour 2025 (MISE À JOUR)

Memecoins, jetons de repos liquides, dérivés de mise liquide, modularité de la blockchain, Layer 1s, Layer 2s (rollups optimistes et rollups à connaissance nulle), BRC-20, DePIN, robots de trading crypto Telegram, marchés de prédiction et RWAs sont quelques récits à surveiller en 2024.
11/26/2024, 1:38:16 AM
Tout ce que vous devez savoir sur GT-Protocole
Débutant

Tout ce que vous devez savoir sur GT-Protocole

GT Protocol est l'un des produits d'IA les plus médiatisés de 2024, utilisant une technologie d'IA avancée pour créer des outils de trading d'IA uniques. Il peut être utilisé pour la gestion de portefeuille d'IA, le trading d'IA et les méthodes d'investissement dans les marchés CeFi, DeFi et NFT, aidant les gens à découvrir facilement et à investir dans diverses opportunités Web3. Il a attiré des centaines de millions d'utilisateurs à participer.
9/25/2024, 7:10:21 AM
Inventaire de 12 projets d'IA sur le sous-réseau Bittensor
Intermédiaire

Inventaire de 12 projets d'IA sur le sous-réseau Bittensor

Bien que l'engouement autour de l'IA ne soit pas aussi fort qu'au début de l'année, le fort rebond de Bittensor montre la confiance du marché dans les projets phares de ce secteur. L'ajout de 12 nouveaux sous-réseaux au cours des derniers mois a considérablement stimulé le développement de l'IA et pourrait favoriser de nouveaux projets innovants. Tout en étant attentif au rebond des prix du TAO, il convient également de tenir compte du développement et du potentiel de ses fondamentaux.
8/20/2024, 9:18:10 AM
Comprendre Hyberbolic: la plateforme d'IA en libre accès
Intermédiaire

Comprendre Hyberbolic: la plateforme d'IA en libre accès

Hyperbolic est une plateforme d'IA innovante en libre accès offrant des ressources de calcul rentables et des services d'IA grâce à son marché de GPU décentralisé et à sa technologie de pointe. La plateforme permet l'inférence d'IA, la location de GPU et la monétisation de modèles d'IA, ce qui facilite la prise de départ des chercheurs, des entreprises et des développeurs tout en optimisant les coûts. Grâce à son architecture avancée utilisant la preuve d'échantillonnage (PoSP) et la technologie spML, les utilisateurs peuvent exécuter des tâches de calcul de manière sécurisée et efficace. De débutants à professionnels, Hyperbolic offre des outils puissants et des ressources pour aider les utilisateurs à explorer et à faire progresser la technologie de l'IA.
1/10/2025, 2:07:14 AM
Vana: Un projet d'IA soutenu par les trois géants du VC
Intermédiaire

Vana: Un projet d'IA soutenu par les trois géants du VC

Vana est une start-up Web3 axée sur la construction d’un réseau de pool de données appartenant aux utilisateurs, en s’attaquant au problème de l’insuffisance des données d’entraînement pour les modèles d’IA grâce à la technologie blockchain. Il offre également aux internautes la possibilité de gagner de l’argent. Récemment, Vana a annoncé l’achèvement d’un tour de financement stratégique de 5 millions de dollars mené par Coinbase Ventures, portant son financement total à 25 millions de dollars. Vana prévoit d’établir un réseau DAO qui permettra aux membres de contribuer et de vendre des ensembles de données aux chercheurs en IA, favorisant ainsi le développement d’un écosystème d’IA décentralisé.
9/25/2024, 10:20:40 AM
Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!