Sécurisation de l'IA : 4 idées reçues à déconstruire

Sécurisation de l'IA : 4 idées reçues à déconstruire

Par David Becu, Directeur Data Protection et Cyber résilience Dell Technologies chez Dell Technologies

Idée reçue n° 1 : « les systèmes d'IA sont trop complexes pour être sécurisés »

« Les cybercriminels utilisent déjà l'IA pour renforcer différents types d’attaques : ransomwares, exploits «zero-day », dénis de service distribués (DDoS), etc. Ils peuvent exploiter des systèmes d'IA mal protégés pour en altérer les résultats ou élever leurs privilèges d’accès.

On pense à tort que cette complexité rend la sécurité impossible. Certes, l'IA comporte ses propres risques, mais en renforçant et en adaptant les pratiques de cybersécurité existantes, il est tout à fait possible de les maîtriser.

Concrètement, les entreprises peuvent renforcer leurs défenses en intégrant les équipes de sécurité dès la conception de l'architecture IA, afin que les considérations de sécurité soient prises en compte dès le départ. Il est aussi essentiel d’appliquer les principes de type Zero Trust afin de gérer les identités, d’établir les contrôles d'accès basés sur les rôles et de procéder à une vérification continue. Elles doivent ensuite développer des politiques de gouvernance des données pour en contrôler l’accès et la protection des données/sauvegarde. Elles pourront ainsi construire des garde-fous solides pour réduire les risques de menaces telles que les injections de prompts et les hallucinations. »

Idée reçue n° 2 : « Il n’existe aucun moyen de sécuriser l'IA »

« Face à la rapidité d’évolution de l’IA, certaines organisations pensent qu’il faut réinventer la sécurité. Cela nourrit l’idée reçue selon laquelle les outils actuels ne suffiraient plus.

Or, même si les charges de travail IA ont leurs spécificités, elles reposent toujours sur des fondations classiques : gestion des identités, segmentation réseau, protection des données.

L’IA requiert avant tout une hygiène cyber rigoureuse : application régulière des correctifs, contrôle des accès, gestion des vulnérabilités.

Pour faire face aux menaces caractéristiques de l'IA, telles que l'injection de prompt ou la compromission des données d’entraînement, les entreprises peuvent simplement adapter leurs stratégies de cybersécurité actuelles au lieu les remplacer.  Par exemple, le logging et l'audit réguliers des prompts et des réponses générées par les modèles de langage (LLM) aident à détecter une activité suspecte ou une utilisation malveillante.

Avant tout, il s’agit pour chaque organisation de comprendre comment ses outils actuels répondent aux exigences des charges IA.

Un audit clair des ressources et des pratiques existantes aide à identifier les zones de vulnérabilité et à prioriser les investissements. »

Idée reçue n° 3 : « Sécuriser l'IA se limite à la protection des données »

« Les LLM fonctionnent en analysant des données et en générant des résultats basés sur leurs observations. Au vu des volumes de données traités, on pense à tort que la sécurisation de l'IA se limite à la protection des données. 

Or, la sécurité de l’IA va bien au-delà. Elle concerne aussi les modèles, les API, les systèmes et les architectures utilisés pour exécuter ces modèles.

Prenons un exemple : une cyberattaque peut viser à modifier les données saisies dans un prompt afin de générer un résultat biaisé. Pour se prémunir, il faut mettre en place des outils de vérification et de conformité capables d’évaluer la fiabilité des informations entrantes et sortantes.

De plus, les API doivent être protégées par une authentification forte, pour bloquer les accès non autorisés.

Et parce que les systèmes d’IA produisent en continu, une surveillance proactive des anomalies est nécessaire pour détecter tout comportement suspect ou tout dysfonctionnement de modèle.

En élargissant leur approche, les entreprises construisent un environnement d’IA plus résilient, fiable et conforme. »

Idée reçu n° 4 : « L’IA agentique rendra la supervision humaine inutile »

« L’IA agentique introduit des agents capables de prendre des décisions autonomes. Cette autonomie alimente une croyance selon laquelle l’intervention humaine finira par devenir superflue. 

C’est faux. Même les systèmes les plus avancés nécessitent une gouvernance humaine continue, pour garantir qu’ils agissent de manière éthique, prévisible et alignée sur les valeurs humaines. Sans supervision, les agents risquent de s’écarter de leurs objectifs initiaux ou d’adopter des comportements imprévus et dangereux. 

Pour éviter cela, les entreprises doivent établir des limites claires, instaurer des contrôles multiniveaux, et maintenir un rôle humain dans toutes les décisions critiques. Des audits fréquents, des tests rigoureux et une traçabilité complète contribuent à renforcer la transparence et la responsabilité. La supervision humaine n’est pas optionnelle : elle est le cœur de la sécurité de l’IA agentique.

Les menaces liées à l’IA peuvent sembler redoutables, mais en appliquant les principes éprouvés de la cybersécurité aux nouveaux risques, les entreprises peuvent se protéger sans complexité excessive ni surcoût. Les systèmes d’IA peuvent tirer parti des outils, pratiques et cadres existants, ce qui permet de gagner du temps, réduire les risques et optimiser les investissements.

En définitive, il ne s'agit pas seulement de déboulonner les idées reçues, mais aussi de donner aux équipes les moyens d’agir de manière proactive, informée et responsable.

Lire plus