top of page

Une note de la DGSI alerte sur les dangers que représente l’IA pour les entreprises

  • Photo du rédacteur: Victor Fersing
    Victor Fersing
  • il y a 3 jours
  • 2 min de lecture

Comment l’IA menace la sécurité des entreprises françaises ?


Dans un rapport publié en décembre dernier, la DGSI tire la sonnette d’alarme sur les risques posés par l’implémentation de l’I.A dans les entreprises françaises.


En prenant comme exemple trois entreprises tricolores, le service de renseignements identifie trois sources de risques majeurs :


1️⃣ La traduction des données sensibles

Les IA comme ChatGPT se nourrissent des données qu’on leur confie, pour potentiellement les rediffuser par la suite. La DGSI rappelle que le "versement d’informations internes aux entreprises dans un outil d’IA générative, particulièrement si elles revêtent un caractère sensible, constitue un risque important de réutilisation de ces informations".


La question de la souveraineté est également soulignée par la DGSI, car certains systèmes d’IA stockent ces données à l'étranger, notamment aux États-Unis, dont les lois peuvent avoir une portée extraterritoriale.


2️⃣ La perte de contrôle

Une entreprise peut accorder une confiance disproportionnée à ses systèmes d’IA. Or, ces systèmes sont loin d'être infaillibles, formulant des réponses grâce à des moyennes statistiques d’informations qui sont souvent elles-mêmes biaisées.


Aussi, “les IA peuvent reproduire ou amplifier des biais présents dans les données d’entrainement, pouvant mener à des décisions inéquitables ou discriminatoires”.


Le risque ? Une perte de vigilance humaine, une dépendance trop forte à des outils imparfaits, et une incapacité à comprendre les choix opérés par ces systèmes.


3️⃣ Les deepfakes

La DGSI mentionne une entreprise française du secteur industriel piégé par un deepfake. Un responsable reçoit un appel en visioconférence du dirigeant du groupe, qui lui demande de transférer des fonds sur un compte bancaire. Surpris par la demande, le responsable met un terme aux échanges, et la tentative d’escroquerie sera détectée.


Mais d’autres exemples n’ont pas une fin si heureuse, comme à Hong-Kong, avec une multinationale qui s’est fait escroquer 26 millions de dollars par un procédé similaire : invitation en visio, deepfake de collègues de travail, demande de virement, disparition.



Les recommandations de la DGSI pour limiter les risques :

  • Définir les conditions d’usage de l’outil, via une charte

  • Favoriser le recours à des IA génératives françaises

  • Privilégier l’utilisation d’IA en local

  • Former régulièrement ses équipes à l’usage de l’IA

  • Faire preuve de vigilance face à la manipulation de l’information et les réponses biaisées.


Chez OFF, nous ajouterions quelques points à cette liste car il ne s’agit pas que d’une question de sécurité.


La généralisation de l’IA dans une entreprise semble souvent alléchante à court terme en termes de productivité… mais cette délégation à l’IA correspond souvent à une perte de compétences pour ses équipes et une plus grande dépendance à des outils qui leur échappent.


Par Victor Fersing

 
 
 

Commentaires


bottom of page