IA et cybersécurité : le bilan 2025

14 novembre 2025
IA et cybersécurité : bilan de 2025

En 2023, l’intelligence artificielle (IA) occupait déjà les conversations, mais restait reléguée au rang de sujet émergent, parfois mal compris et souvent cantonné à quelques démonstrations. En 2024, nous sommes passés à une utilisation qui se démocratise, mais qui reste soit marginale, soit occasionnelle. Mais en 2025, la situation a radicalement changé : l’IA est devenue LE sujet central, celui qui inquiète autant qu’il fascine et qui redéfinit profondément la cybersécurité dans un monde où elle est omniprésente, que ce soit pour l’actualité économique, dans le domaine artistique, sur les réseaux sociaux ou dans le monde professionnel. Elle est utilisée quotidiennement, par le grand public… comme les acteurs malveillants.

La table ronde consacrée à l’IA lors du Campus Cyber Summit a mis en lumière une réalité devenue incontestable : en très peu de temps, nous sommes passés d’une utilisation balbutiante à un écosystème où l’IA est omniprésente, hyper-performante et utilisée à la fois pour renforcer la sécurité… et pour contourner toutes les barrières imaginables. Ce bilan a fait émerger trois questions simples, mais essentielles pour les acteurs cyber :

Comment fonctionne une IA ? Où vont les données ? Comment utiliser ces outils en toute sécurité ?

 

Comment fonctionne l’intelligence artificielle et les LLM ?

le fonctionnement d'un LLM / d'une IA Comprendre la mécanique des modèles de langage

Les modèles d’IA générative, aussi dit LLM -ou Large Language Models) reposent sur des réseaux neuronaux entraînés sur des corpus gigantesques, comptant parfois plusieurs milliers de milliards de tokens. Leur principe est statistique : prédire le mot suivant en fonction de ceux qui le précèdent, en s’appuyant sur des milliards de paramètres ajustés durant l’entraînement.

On distingue deux grandes familles :

  • Les modèles propriétaires, comme OpenAI, Google ou Anthropic, hébergés dans des datacenters privés et alimentés par des pipelines d’entraînement massifs.
  • Les modèles open-source auto-hébergés, tels que LLaMA, Mistral ou Mixtral, qui permettent une maîtrise totale du traitement des données..

Cette mécanique n’a rien de magique. C’est une optimisation statistique qui, bien utilisée, permet des gains opérationnels immenses. Mais comme tout outil : mal utilisée, elle devient un amplificateur des risques.

 

 

 

Pourquoi ces modèles sont devenus un accélérateur… et un amplificateur

Lors du Campus Cyber Summit, un constat revenait en boucle : le bond qualitatif des modèles en un an est vertigineux.

En 2024, les IA produisaient des mails truffés d’erreurs, des résumés approximatifs et des contenus encore facilement détectables.

En 2025, les LLM proposent :

  • un niveau linguistique quasi-humain,
  • une compréhension contextuelle élevée,
  • des capacités de raisonnement améliorées,
  • et pour certains modèles non bridés, des réponses dangereusement complètes sur des sujets sensibles (intrusions, contournements, scripts, etc.).

Les cybercriminels en tirent profit via des LLM débridés disponibles sur des forums obscurs ou sous forme de modèles open-source adaptés à leurs besoins.

 

L’IA au service de la cybersécurité : un levier majeur en 2025

analyse par intelligence artificielle Automatisation de la détection et analyse à grande échelle

L’un des points les plus enthousiasmants du Summit concerne la capacité de l’IA à renforcer les opérations de cybersécurité. Les solutions d’IA spécialisées permettent désormais de détecter des signaux faibles, de corréler des événements, d’accélérer les investigations et de réduire la charge cognitive sur les équipes SOC.

Cette montée en puissance illustre parfaitement le fait que la cybersécurité est désormais au cœur des stratégies business, avec une intégration croissante dans la gouvernance et les décisions stratégiques. Les organisations cherchent des outils capables de traiter ce que l’humain ne peut plus absorber seul.

 

Accélération opérationnelle (ex : vidéosurveillance x80)

Les exemples concrets présentés au Summit impressionnent.

Certaines plateformes d’analyse vidéo assistées par IA sont capables de traiter des flux 80 fois plus vite qu’un opérateur humain, avec une précision accrue.

L’objectif n’est pas de remplacer, mais d’augmenter l’humain :

  • détection de comportements suspects,
  • alertes accélérées,
  • filtrage automatisé d’événements,
  • surveillance de périmètres sensibles.

Ce même principe s’applique aux environnements cloud, aux systèmes industriels ou aux infrastructures critiques.

 

… mais l’IA est aussi devenue l’arme cyber préférée des attaquants

De l’amateurisme au niveau expert : une bascule en 1 an

Si l’IA renforce la défense, elle renforce aussi l’attaque. Il y a un an, une campagne de phishing nécessitait plusieurs opérateurs, un niveau technique limité et du temps. Les fautes d’orthographe rendaient les tentatives faciles à repérer.

En 2025 :

  • les e-mails de phishing sont impeccables et personnalisés,
  • les scripts malveillants sont générés automatiquement,
  • l’énumération d’un système prend quelques secondes,
  • les modèles automatisent la recherche de vulnérabilités,
  • et des kits complets d’attaque sont générés sur simple requête via des modèles open-source non filtrés.

La criminalité n’a plus besoin d’experts : l’IA démocratise les capacités offensives.

 

Exemples concrets : l’explosion des deepfakes criminels et politiques

Les deepfakes, déjà présents ces dernières années, ont franchi un cap inquiétant. Parmi les exemples discutés ou rappelés lors du Summit :

  • le faux entretien vidéo du maire de Kiev, utilisé pour tromper des élus européens (source),
  • l’arnaque à 26 millions de dollars à Hong-Kong via une visioconférence deepfake (source),
  • l’intervention deepfake lors des élections irlandaises en 2025 (source).

Ces affaires montrent que l’IA abaisse drastiquement la barrière technique pour lancer une attaque sophistiquée… et redéfinit notre rapport à la preuve numérique.

 

L’importance d’un accompagnement expert

Face à cette accélération, les organisations doivent s’entourer d’équipes capables de comprendre les modèles, les flux, les biais, et les risques juridiques.

C’est aussi pour cela que faire appel à des experts en cybersécurité devient un impératif, afin d’éviter les erreurs de configuration, les fuites de données et les usages risqués.

 

Mes données sont-elles récupérées, stockées ou réutilisées par l’IA ?

Le vrai fonctionnement des données côté LLM

Lorsqu’on interroge une IA, deux phases existent :

  1. L’entraînement : les données utilisées pour apprendre restent dans le modèle.
  2. L’inférence : les données que l’utilisateur envoie ne sont pas censées réentraîner le modèle, mais peuvent être conservées temporairement pour le monitoring, la sécurité ou l’amélioration du service selon les fournisseurs.

Les modèles open-source auto-hébergés offrent une maîtrise totale… mais aussi une responsabilité totale sur la sécurité, la gouvernance et la conformité.

 

Problématique juridique et territorialité des données

Le lieu d’hébergement est crucial :

  • Une IA hébergée aux États-Unis peut être soumise au Cloud Act.
  • Une IA hébergée en Europe est régie par le RGPD et, désormais, par le futur AI Act.

Pour mieux comprendre ces enjeux, nous avons analysé en détail les risques liés au traitement des données via une IA dans un article dédié — un sujet qui revient systématiquement chez nos clients.

 

Comment sécuriser l’utilisation de l’intelligence artificielle en 2025 ?

Le cadre réglementaire se renforce : AI Act, NIS2, RGPD

Trois piliers structurent désormais la conformité IA en Europe :

  • L’AI Act, qui classe les IA par niveaux de risque et impose des obligations techniques ;
  • La directive NIS2, qui renforce la gouvernance cyber des organisations critiques et exige une gestion des risques beaucoup plus rigoureuse ;
  • Le RGPD, toujours pilier majeur pour les données personnelles.

Cette convergence réglementaire impose une approche beaucoup plus mature de l’IA — notamment pour les entreprises déjà concernées par la NIS2 et ses obligations de gouvernance.

 

Bonnes pratiques techniques pour intégrer l’IA de manière sécurisée

Pour sécuriser l’usage de l’IA, plusieurs mesures s’imposent :

  • privilégier les IA conformes au cadre européen,
  • contrôler les données envoyées à des modèles externes,
  • cloisonner les usages (modèles internes vs usages personnels),
  • déployer des versions entreprise (Azure OpenAI, Vertex AI, Mistral Enterprise),
  • intégrer une politique d’usage de l’IA : charte, supervision, sensibilisation, filtres anti-deepfake, etc.

Mais plus que jamais, l’IA nécessite une gouvernance solide. La cybersécurité ne peut plus être considérée comme un simple sujet technique ; elle est devenue un pilier stratégique, au même titre que la conformité ou la performance comme nous le disions plus haut.

 

L’IA, un pivot majeur

Le Campus Cyber Summit 2025 confirme que l’IA est devenue un pivot majeur de la cybersécurité moderne. Elle accélère, amplifie, détecte, analyse, anticipe… mais elle fragilise aussi lorsqu’elle est mal utilisée.

L’accélération est telle que le paysage des menaces change à un rythme sans précédent : ce qui prenait des semaines aux attaquants se fait désormais en quelques minutes.

C’est maintenant que se joue la maturité des organisations : gouvernance renforcée, choix technologiques maîtrisés, conformité juridique, et surtout accompagnement par des spécialistes capables de comprendre les enjeux de bout en bout.

En 2025, l’IA n’est ni une opportunité, ni une menace : elle est un multiplicateur, pour le meilleur comme pour le pire.

portrait

Surya RACKI

Consultant cybersécurité, j'accompagne mon client au sein de son SOC. En administrant les solutions XDR et SIEM, je traite différentes alertes de sécurité et accompagne ce client en cas d’incident, en développent des connecteurs internes et en automatisant la détection et la réponse, grâce à l'intégration des référentiels MITRE / ETSI dans les logiques de détection et en améliorant de manière continue les playbooks.

Olivier ANDOH, fondateur de SkillX | Cybersécurité et cloud

Rencontrons nous !

Prenez rendez-vous avec l'équipe SkillX

Prendre RDV

⚡ Votre navigateur est obsolète ⚡

Mettre à jour mon navigateur