slopsquatting supply chain

Slopsquatting: la menace de l'IA pour la sécurité des logiciels

L'aide du La génération du code du code basée sur l'intelligence artificielle apporte des modifications profondes à la programmation et au travail quotidien des développeurs. Des systèmes tels que Github Copilot, Cursor Ai et Chatgpt En plus de faire partie intégrante des séances de développement, il a simplifié les processus réduits des délais de livraison et augmenté l'efficacité des équipes. Mais derrière cette accélération de la productivité, il existe une nouvelle vulnérabilité qui pourrait saper la sécurité de l'ensemble du logiciel de la chaîne d'approvisionnement: il Slopsquatting.

Lorsque l'IA « invente » le logiciel

Le problème découle des «hallucinations» si appelées des modèles d'intelligence artificielle. Ce sont des suggestions de packages logiciels qui n'existent pas mais qui, par nom et structure, semblent complètement plausibles. Une étude menée par trois universités américaines – Texas à San Antonio, Oklahoma et Virginia Tech – a noté que Les modèles open source commettent ce type d'erreur avec une fréquence inquiétante: Plus de 20% des suggestions analysées se sont révélées non existantes. Les outils commerciaux font mieux, Mais ils enregistrent toujours un taux d'erreur d'environ 5%.

Ces forfaits inventés sont difficiles à reconnaître car ils imitent de manière convaincante les vrais. Dans certains cas, le problème est encore compliqué avec une sorte de « contamination linguistique »: Les assistants formés sur des packages JavaScript non existants suggérés par Pythonun facteur qui peut également désorienter les développeurs d'experts.

Chaîne d'approvisionnement en slops

De la « blague » au risque mondial

Les pirates ont rapidement saisi l'opportunité et ont créé une variante du Typosttat appel Slopsquat. Au lieu d'exploiter les erreurs de battement, Cette technique est basée sur les mêmes packages non existants suggérés par l'IA. Les attaquants enregistrent ces noms sur des référentiels officiels tels que NPM ou PYPIdans lequel ils insérent du code malveillant. Lorsqu'un développeur fait confiance aux recommandations de l'IA et installez le package, introduit inconsciemment une porte dérobée ou des logiciels malveillants dans votre projet.

Un épisode qui a eu lieu à la fin de 2023 a démontré la portée du problème. Un chercheur en sécurité a enregistré le package inexistant « HuggingFace-Cli », souvent suggéré par certains modèles AI, Comme test inoffensif. En quelques jours, des milliers de développeurs l'ont installé, y compris des équipes de grandes entreprises telles que Alibaba. Si cette expérience avait été malveillante, Les conséquences auraient été dévastatrices.

La vulnérabilité de la chaîne de distribution

Moderne pipeline d'intégration et de distribution continue (CI / CD) amplifier le risque: un seul package compromis peut se propager rapidement aux environnements de production, compromettant les applications et les services de manière généralisée. Outils de sécurité traditionnels, basés sur la réputation historique des forfaits, Ils ne sont pas prêts à intercepter les menaces si nouvelles et dynamiques.

Pour cette raison, il devient crucial d'introduire des contrôles plus rigoureux et des processus de vérification manuelle, flanqués d'une plus grande conscience des développeurs. Les experts recommandent d'utiliser Fichier de verrouillageversions fixes et vérifications cryptographiques sur hacher Pour assurer l'intégrité des packages, ainsi que le maintien dépôt intérieurs fiables.

Chaîne d'approvisionnement en slopsChaîne d'approvisionnement en slops

L'équilibre entre la sécurité et la productivité

Certains chercheurs expérimentent Solutions techniques pour réduire les hallucinationscomme le Génération augmentée de récupération (RAG) ou supervision avancée. Ces stratégies parviennent à réduire les erreurs jusqu'à 85%mais ils risquent de dégrader la qualité globale du code généré. Le défi est donc de trouver un équilibre entre le développement et la vitesse de sécurité. Dans le même temps, la culture organisationnelle joue un rôle clé. L'examen des mêmes packages, l'adoption de politiques internes et la formation spécifique sont des outils indispensables pour empêcher les recommandations de l'IA d'être acceptées sans contrôle critique.