Est-ce qu’utiliser une IA est dangereux pour mes données ?

1 février 2024
Illustration crée par IA, représentant un collaborateur travaillant sur ses logiciels, assisté par IA

L’avènement de l’Intelligence Artificielle (IA) a transformé et boosté notre façon de travailler, apportant avec elle des assistants virtuels tels que Bard de Google, ChatGPT d’OpenAI ou encore les modèles produits par Mistral AI, petit français dont la puissance des modèles rafle tout sur son passage. 

Génération de texte, d’images ou de code, analyse de données brutes pour les résumer, prise de notes en temps réel d’une réunion visio, tri d’e-mails, création de réponses, etc… Certains outils visent même à s’intégrer directement à toutes  les composantes des suites de gestion et d’outils professionnels. 

Illustration crée par IA, représentant un collaborateur travaillant sur ses logiciels, assisté par IA

C’est le cas d’outils comme Gemini (Google) ou Copilot de Microsoft (intégrant le modèle IA d’Open AI) dont la version PRO, tout juste accessible au grand public, vise à devenir un réel bras droit, permettant un gain de temps considérable sur Office 365. 

Évidemment, la plus grosse interrogation persiste : cette assistance par IA comporte-t-elle des risques pour la sécurité de nos données 🔒 ? 

Plongeons dans cet univers complexe en examinant les avantages, les inconvénients et les mesures de sécurité nécessaires.

 

Les avantages indéniables de l’assistance par IA

L’utilisation d’assistants basés sur l’IA générative offre des avantages considérables en termes de productivité, de créativité et d’efficacité.

Ces systèmes peuvent générer du texte, du code et des solutions innovantes, facilitant grandement le quotidien professionnel. Elles peuvent même aider à générer de quoi illustrer vos propos, et même à créer totalement une présentation ou un design ✏️.

Illustration crée par IA, représentant la création d'art et de design par intelligence artificielle

De plus, la plupart des IA génératives sont conçues avec des protocoles de sécurité stricts ⚙️, minimisant le stockage non autorisé des données et garantissant une confidentialité accrue.

 

Les risques potentiels à prendre en considération

Cependant, l’enthousiasme pour ces technologies ne doit pas occulter les risques potentiels ⚠️

Une inquiétude majeure concernant les assistants IA réside dans la manière dont leur modèle de sécurité opère avec les autorisations, laissant la possibilité à cette solution d’accéder à l’ensemble des fichiers et informations de l’utilisateur concerné, pendant que la plupart des utilisateurs au sein d’une entreprise ont déjà des niveaux d’accès considérables et discutables ❌. 

Or, les modèles d’IA générative apprennent souvent à partir de grands ensembles de données, qui peuvent contenir des données sensibles 📁, en fonction des informations partagées. 

La question du stockage des données demeure donc cruciale, et bien que la plupart des IA génératives soient conçues pour ne pas conserver les informations par défaut, il reste des préoccupations en matière de confidentialité. 

Par exemple, une semaine après l’annonce de Q fin novembre 2023, Plateformer disait que ce chatbot version Amazon pourrait avoir des problèmes d’hallucinations et de fuites d’informations. Des informations internes obtenues par les médias indiquaient que l’assistant pourrait divulguer, entre autres, la localisation de datacenters d’AWS, des détails sur les programmes de réduction de l’entreprise et des fonctionnalités encore non commercialisées 😅.

Les utilisateurs doivent prendre conscience des droits sur les données générées, de la provenance des informations sources, et des accès potentiels qu’ont ces IA. Une utilisation négligente ou mal informée pourrait potentiellement exposer des données sensibles.

 

Une approche équilibrée pour une coexistence harmonieuse

La sécurité est un frein majeur pour les entreprises et personnes qui souhaitent adopter l’IA. Pour naviguer en toute sécurité dans l’univers de l’assistance par IA, il est crucial d’adopter une approche équilibrée ⚖️. Les avantages sont indéniables, mais ils doivent être exploités avec prudence.

La clé réside dans une compréhension approfondie des mécanismes de sécurité, du stockage des données, des droits et de la provenance. En choisissant des paramètres de confidentialité appropriés et en restant informé sur les implications de l’utilisation d’IA génératives, il est possible de bénéficier pleinement de ces technologies tout en préservant la sécurité de nos données. La coexistence entre l’IA et la sécurité des données est possible avec une approche éclairée et proactive 🚀.

 

Des réglementations en cours

Côté réglementation, pendant que ces technologies continuent de s’immiscer dans nos vies professionnelles, une lueur d’espoir émane des récentes discussions au sein de l’Union européenne.

L’Agence européenne de la cybersécurité (ENISA) envisage une réglementation graduelle de l’IA générative, conforme à l’AI Act. Ce système à trois niveaux vise à équilibrer la régulation sans étouffer l’innovation. Il impose des obligations de transparence, des évaluations externes pour les modèles performants et des études d’impact à but préventif pour les modèles de grande envergure (l’impact sur la facilitation de la personnalisation des attaques cybermalveillantes par exemple notamment). L’idée d’un nouvel organisme européen dédié à l’IA renforce le paysage réglementaire 🗎.

Photo de l'Union Européenne et de l'ENISA

Photo de Guillaume Périgois sur Unsplash

Cette proposition, tout en répondant aux préoccupations croissantes, cherche à éviter des obstacles excessifs pour les acteurs européens. L’objectif est de maintenir la compétitivité tout en garantissant la sécurité des utilisateurs. Alors que les négociations se poursuivent, cette approche graduelle pourrait façonner un avenir où l’IA générative coexiste harmonieusement avec des règles claires et protectrices.

 portrait

Simon VANPOUCKE

Chargé de communication et de missions RH, padawan devenu jedi après plus d'1 an et demi en alternance. Aussi passionné de sport et de sujets en tout genre, je crois en la force de chacun pour faire évoluer l'équipe et aller toujours plus loin, jusqu'à des galaxies très, très lointaines.

Olivier ANDOH, fondateur de SkillX | Cybersécurité et cloud

Rencontrons nous !

Prenez rendez-vous avec l'équipe SkillX

Prendre RDV

⚡ Votre navigateur est obsolète ⚡

Mettre à jour mon navigateur