Europol alerte sur l’avenir malveillant de ChatGPT

L’agence européenne s’est intéressée au robot de la société OpenAI pour illustrer le potentiel de l’intelligence artificielle dans la cybercriminalité.

Le côté obscur de l’intelligence artificielle ? Europol, l’agence européenne de police criminelle alerte sur le potentiel malveillant de ChatGPT, le robot de l’entreprise OpenAI. Dans un rapport publié le 27 mars dernier, les experts du service de l’Union européenne ont identifié trois domaines de menaces potentielles, que sont la fraude et l’ingénierie sociale, la désinformation et les cybercrimes.

Europol souhaite ainsi interpeller les pays membres et les entreprises des capacités des Grands modèles de langage, les LLM. Selon l’agence, ces programmes informatiques, qui utilisent le deep learning et des réseaux de neurones artificiels pour générer du texte et du code source “ont un grand potentiel”. Avant de préciser : “Bien que cela offre de grandes opportunités aux entreprises légitimes et aux membres du public, cela peut également constituer un risque pour eux et pour le respect des droits fondamentaux, car les criminels et les mauvais acteurs peuvent souhaiter exploiter les LLM à leurs propres fins néfastes”.

Une intelligence artificielle facilement accessible
Le choix de ChatGPT n’est pas anodin. En effet, depuis son lancement en novembre 2022, l’intelligence artificielle étonne par son potentiel. Rédaction de textes universitaires, résolution de problème, traduction de texte, conversation avec les utilisateurs, les capacités du robot d’OpenAI semblent presque infinies. Et surtout, la version 3.5 de l’agent conversationnel a été diffusée auprès d’un large public, ce qui le rend aujourd’hui facilement accessible mais également contournable. Et ce malgré ses propres limitations. “ChatGPT ne répond pas aux questions qui ont été classées comme nuisibles ou biaisées. Ces mécanismes de sécurité sont constamment mis à jour, mais peuvent toujours être contournés dans certains cas avec une ingénierie rapide appropriée”, met en garde Europol.

Pour mener à bien son analyse, l’agence a réuni des spécialistes en cybercriminalité, contreterrorisme et en crime organisé. Selon leurs conclusions, le développement rapide des Grands modèles de langage pourraient rendre de plus en plus accessible les actions malveillantes. “il deviendra plus facile que jamais pour les acteurs malveillants de perpétrer des activités criminelles sans connaissances préalables nécessaires”.