
|
EN BREF
|
Une récente analyse menée par l’université d’Édimbourg a mis en lumière la déception des cybercriminels concernant les performances de l’intelligence artificielle (IA). En examinant plus de 100 millions de messages issus de forums clandestins, les chercheurs ont constaté que, bien que les cybercriminels soient intéressés par l’utilisation d’outils d’IA, cette technologie n’a pas vraiment révolutionné leurs méthodes de travail. En effet, l’étude révèle que peu d’entre eux parviennent à exploiter l’IA pour améliorer leurs activités illicites, la plupart des discussions soulignant l’inefficacité des outils d’IA dans ce domaine. La plupart des applications de l’IA observées se limitent à des tâches simples, tandis que les cybercriminels continuent de recourir à d’anciens modèles d’IA moins performants.
Une analyse récente de l’université d’Édimbourg met en lumière la déception des cybercriminels concernant l’intégration de l’intelligence artificielle (IA) dans leurs activités. En examinant plus de 100 millions de messages publiés sur des forums spécialisés, l’étude a constaté que malgré un certain intérêt pour ces technologies, les pirates informatiques rencontrent des difficultés notables à tirer profit de ces outils de manière significative. Des résultats indiquent que l’IA n’a pas fondamentalement transformé leurs méthodes de travail, et que son utilisation est souvent perçue comme inutile par ces acteurs du monde digital.
Analyse des messages publics des cybercriminels
Dans le cadre de l’étude, les chercheurs se sont appuyés sur la base de données CrimeBB, qui compile des informations provenant de forums clandestins. Cette approche a permis une analyse approfondie des interactions des cybercriminels, menant à des conclusions surprenantes. Malgré l’engouement autour de l’IA, les discussions sur ces plateformes révèlent une méfiance envers son efficacité. Les messages analysés montrent que les outils d’IA, même s’ils suscitent de l’intérêt, sont perçus comme peu utiles dans le contexte de la cybercriminalité.
Des outils d’IA jugés peu efficaces
Les cybercriminels expriment un intérêt pour l’apprentissage de l’utilisation d’outils d’IA, mais cela ne se traduit pas par une transformation significative de leurs pratiques. Dans plusieurs cas, les discussions révèlent un sentiment de frustration face à l’inefficacité de ces technologies. L’étude mentionne que beaucoup de leur feedback tourne autour de l’inutilité perçue de ces systèmes, renforçant l’idée que l’IA ne répond pas à leurs attentes en termes d’amélioration des techniques de hacking.
Limitations de l’IA pour les cybercriminels
Les résultats de l’étude montrent que l’IA, jusqu’à présent, n’a pas été en mesure de fournir les outils nécessaires aux cybercriminels. Bien que les assistants de programmation basés sur l’IA puissent être bénéfiques pour les développeurs expérimentés, ils semblent manquer d’apport pour ceux qui cherchent à pénétrer des systèmes ou à contourner des dispositifs de sécurité. Une des conclusions significatives de cette étude est que pour tirer un vrai profit de l’IA, il est essentiel de d’abord acquérir des connaissances de base en programmation.
L’impact de l’IA sur la cybercriminalité
Jusqu’à présent, l’impact réel de l’IA dans le domaine de la cybercriminalité semble restreint à certaines tâches facilement automatisables. Cela inclut des activités telles que la création de bots sur les réseaux sociaux, ainsi que des escroqueries sentimentales. Par ailleurs, la fraude liée au référencement et la création de faux sites web, qui attirent de faux clics pour générer des revenus publicitaires, sont également des domaines où l’IA est utilisée, mais avec un rendement limité dans l’innovation.
Utilisation des chatbots par les cybercriminels
Les retours d’expérience des cybercriminels indiquent que même les hackers les plus aguerris ont recours à des chatbots pour obtenir des réponses à des questions techniques ou pour générer des notes d’aide pour coder. Il est intéressant de constater que l’IA utilisée dans ces contextes provient souvent de produits grand public, comme Claude d’Anthropic ou Codex d’OpenAI. Ces outils, bien qu’efficaces pour les développeurs professionnels, ne sont pas conçus spécifiquement pour des activités illicites.
Recherche de modèles d’IA adaptés à la cybercriminalité
Malgré les limitations des outils d’IA grand public, les cybercriminels continuent à explorer des modèles spécialement développés pour leur activité. Cependant, l’étude a révélé que ces outils sont souvent moins accessibles ou plus difficiles à déverrouiller. Les messages indiquent une quête constante d’approches pouvant exploiter ces systèmes, mais il semble qu’il y ait un fossé significatif entre l’intention et la réalisation effective.
Les défis liés aux garde-fous de l’IA
Un aspect intéressant soulevé par les chercheurs est l’efficacité des garde-fous intégrés par les entreprises d’IA. Ces protections semblent fonctionner, du moins jusqu’à présent. Les cybercriminels se retrouvent donc dans une situation où ils sont contraints de se tourner vers d’anciens modèles d’IA open source, qui, bien que plus faciles à manipuler, offrent souvent moins de performance. L’étude souligne que ces avancées en matière de sécurité numérique sont prometteuses et soulignent les efforts déployés pour protéger les utilisateurs.
Implications pour l’avenir de la cybercriminalité
Les résultats de cette analyse laissent entrevoir une dynamique intéressante pour l’avenir de la cybercriminalité. Si les cybercriminels peinent à intégrer l’IA de manière efficace dans leur travail, cela pourrait signifier que les effets de l’IA sur leurs techniques et approches resteront limités pour le moment. Toutefois, l’évolution rapide de la technologie signale qu’ils pourraient éventuellement trouver des moyens d’utiliser l’IA à leur avantage, à condition de surmonter les barrières actuelles.
En conséquence, il est crucial que les entreprises de cybersécurité continuent à investir dans des solutions qui rendent l’utilisation de l’IA par des cybercriminels de plus en plus difficile. Les garde-fous déjà implémentés montrent des résultats positifs, mais l’amélioration des technologies de sécurité demeure un enjeu clé pour l’avenir numérique.
Pour davantage d’informations sur les tendances actuelles en matière de cybersécurité et sur la manière dont les entreprises peuvent lutter contre la cybercriminalité, vous pouvez consulter cet article sur la gestion de la sécurité numérique.
De plus, pour en savoir plus sur les nouvelles méthodes de manipulation exposées par des plateformes comme ChatGPT et Gemini, n’hésitez pas à lire cet article qui présente des cas plus sophistiqués d’utilisation de l’IA dans ce domaine : manipulation avancée de l’IA.

Les cybercriminels et leurs attentes décevantes en matière d’IA
Une récente étude menée par l’université d’Édimbourg révèle que les cybercriminels se montrent de plus en plus déçus par les performances de l’intelligence artificielle dans leurs activités illégales. Malgré un intérêt marqué pour l’apprentissage des outils d’IA, ces derniers n’ont pas révolutionné leur modus operandi. Les discussions sur les forums clandestins révèlent que beaucoup de ces hackers n’estiment pas les outils d’IA comme étant véritablement utiles.
Dans le cadre de cette étude, plus de 100 millions de messages ont été examinés, mettant en lumière cette désillusion. Alors que les assistants de programmation basés sur l’IA montrent des avantages pour les utilisateurs expérimentés, ils ne semblent pas offrir de réelle aide aux cybercriminels cherchant à perfectionner leurs techniques d’intrusion ou à contourner les dispositifs de sécurité.
Un témoignage provenant d’un forum indique clairement : « Il faut d’abord apprendre les bases de la programmation par soi-même avant de pouvoir utiliser l’IA et en tirer VRAIMENT profit. » Cela souligne le fait que la maîtrise des fondamentaux est primordiale avant de tirer parti des outils d’IA, limitant leur efficacité dans le secteur de la cybercriminalité.
Les chercheurs notent que l’impact de l’IA sur les activités illégales est principalement lié à l’automatisation des tâches simples, telles que la création de bots pour les réseaux sociaux ou des escroqueries sentimentales. Dans ces cas, les outils d’IA s’avèrent pratiques, mais n’apportent pas une innovation significative, surtout pour ceux qui cherchent à mener des opérations plus sophistiquées.
Il est intéressant de constater que de nombreux cybercriminels se tournent vers des modèles d’IA grand public tels que Claude d’Anthropic ou Codex d’OpenAI, plutôt que d’explorer des options spécifiquement conçues pour des applications illégales. La tentative de contourner les garde-fous proposés par ces technologies semble se heurter à des difficultés, forçant les pirates à revenir à des modèles d’IA open source moins performants.
Ces derniers mois, des retours d’expérience ont révélé que même les hackers les plus aguerris recourent de plus en plus aux chatbots pour obtenir de l’aide concernant la programmation. Cependant, les résultats sont souvent inférieurs aux attentes, ce qui contribue à une amère prise de conscience du rôle limité que l’IA joue réellement dans le monde de la cybercriminalité.
