3min. de lecture

L’engouement pour l’intelligence artificielle a atteint un niveau record. Pour preuve, dans le cadre d’une étude mondiale menée par S&P, 70 % des répondants disent avoir au moins un projet IA en cours. Si l’IA promet de transformer la manière dont les entreprises mènent leurs opérations, elle ouvre également de nouvelles failles dans lesquelles les acteurs malveillants n’hésitent pas à s’engouffrer. Or, la plupart des organisations ne sont pas équipées pour faire face à cette menace.

Au cours des six derniers mois, pas moins de trois études (rapport S&P Global « Global Trends in AI 2023 » ; rapport Foundry « AI Priorities 2023 » ; rapport Forrester « Security And Privacy Concerns Are The Biggest Barriers To Adopting Generative AI ») ont abouti aux mêmes conclusions : la sécurité des données représente le plus grand frein à l’adoption et à l’exploitation de l’IA générative en entreprise. Plus concrètement, l’adoption de ces nouveaux outils augmente le volume de données stockées dans l’environnement cloud des entreprises. Or, plus les données stockées, traitées et disponibles dans différents cloud sont nombreuses, plus le risque augmente. D’autant que ces architectures dématérialisées sont généralement réparties dans plusieurs pays. Un véritable casse-tête pour la conformité et la confidentialité.

Sans protection adaptée, les entreprises deviennent instantanément la cible des cybercriminels. Dans leur rapport 2024 sur la réponse à incident, les experts Unit 42® observent la rapidité avec laquelle les attaquants volent les données : 45 % d’entre eux parviennent à exfiltrer ces informations en moins de 24 heures après la compromission initiale. À l’ère de l’IA, la data devient une matière grise essentielle à une exploitation pleine et entière de cette technologie. D’où l’importance de placer la sécurité des données au rang de priorité.

Les fondements d’un programme efficace pour la sécurité des données

Voici les trois principes fondateurs d’un programme efficace pour protéger les données à l’ère de l’IA :

Protéger l’IA – Les environnements IA (data, pipelines, résultats des modèles) ne peuvent être sécurisés en vase clos. Votre stratégie doit tenir compte du contexte global dans lequel les systèmes IA sont utilisés et leur impact sur l’exposition des données sensibles, la facilité des accès et la conformité réglementaire.

Sécuriser le modèle IA en lui-même nécessite d’identifier les risques en présence, les accès trop permissifs et les flux de données non conformes dans tout le pipeline IA.

Protéger contre l’IA – Comme la plupart des nouvelles technologies, l’intelligence artificielle est une arme à double tranchant. C’est ainsi que les cybercriminels s’en emparent pour générer et exécuter des attaques à grande échelle. Par exemple, les acteurs malveillants utilisent l’IA générative pour créer des malwares, rédiger des e-mails de phishing plus vrais que nature et propager de fausses informations à l’aide de deep fakes. Mais ce n’est pas tout, ils peuvent aussi empoisonner les outils d’IA générative et les grands modèles de langage (LLM) qui les sous-tendent, provoquant ainsi des résultats erronés, voire la fuite de données sensibles.

Protéger grâce à l’IA – Intégrer l’IA à votre stratégie de sécurité, c’est donner à vos équipes de sécurité le pouvoir d’anticiper, de traquer et de bloquer les cyberattaques avec une efficacité jamais vue auparavant. L’IA optimise le tri des alertes pour prioriser les plus urgentes et faire gagner un temps précieux aux analystes sécurité. Autre avantage, l’intelligence artificielle excelle dans la reconnaissance des patterns. Les acteurs malveillants qui répètent systématiquement la même chaîne d’attaque (comme les gangs de ransomware) peuvent donc être détectés et bloqués beaucoup plus rapidement.

En se concentrant sur ces trois axes de la sécurité des données, les entreprises pourront innover et explorer toute la puissance de l’IA sans craindre d’introduire de nouveaux risques dans leur environnement.