SECURE&TIP: LES RISQUES DE L’IA

This entry is also available in:

 

 

Qu’est-ce que l’IA ou l’intelligence artificielle?

L’intelligence artificielle est une fonctionnalité que les nouvelles technologies sont en train d’acquérir et qui permet à un appareil ou à un support (ordinateur, machine, mobile, voiture, application, haut-parleur intelligent, web, etc.) d’engager une communication fluide avec une personne. Au point de répondre à des questions, de tenir une conversation ou de résoudre des problèmes, avec un niveau de compréhension équivalent, voire supérieur, à celui d’un cerveau humain.

L’utilisation de l’IA s’accompagne-t-elle de cyberattaques?

Malheureusement, oui. Par exemple, la technologie d’IA la plus utilisée aujourd’hui est ChatGPT, avec 400 millions d’ utilisateurs actifs mensuels dans le monde (120 millions de plus qu’en 2024). Pour les cybercriminels, il s’agit donc d’une « nouvelle mer pleine de poissons à frire ». Et ce, parce que nTous les programmes et applications dotés de ces fonctionnalités ne sont pas aussi sûrs. Par exemple, des vulnérabilités ont déjà été détectées dans les assistants informatiques des voitures, les haut-parleurs intelligents de type Alexa et même ChatGPT lui-même ou des moteurs de recherche similaires (par exemple, Copilot de Microsoft).

Quelles sont les précautions à prendre?

En particulier, si nous utilisons ces technologies non seulement à un niveau personnel, mais aussi à un niveau professionnel, les éléments suivants doivent être pris en compte :

  1. Règle d’or : se méfier de tout et demander l’avis d’experts. Cela signifie que, sur le plan personnel, nous devons faire attention à ce que nous utilisons et téléchargeons, et qu’en cas de doute, il est préférable de demander conseil à une personne ayant un profil technique. Mais aussi au niveau professionnel, si nous voulons utiliser une technologie d’IA sur le lieu de travail, parce qu’elle nous aide à être plus efficaces ou à améliorer la qualité de notre travail, nous devons d’abord demander l’autorisation à notre supérieur hiérarchique et au service informatique. Si nous l’utilisons sans l’avoir communiqué en interne, en cas de cyber-attaque, nous serions, en tant qu’utilisateur, directement responsables de cet incident et de l’éventuelle fuite d’informations.
  2. Ces technologies enregistrent et stockent les transcriptions de vos conversations. Il est très fréquent que la politique de confidentialité ou les conditions d’utilisation d’une technologie indiquent que celle-ci peut collecter des informations à partir de nos messages, de nos fichiers et de tout commentaire que nous partageons. En outre, les conversations peuvent être examinées par des coachs en IA afin de développer le chat et d’améliorer le système. Par conséquent, les données personnelles ou d’entreprise que nous saisissons ne sont pas seulement compromises, elles sont également utilisées au profit de l’entreprise qui en est à l’origine. Cela crée un risque punissable en matière de cybersécurité et de protection de la vie privée, tant pour l’utilisateur qui les saisit que pour l’entreprise à laquelle il appartient.
  3. Faux sites web et fausses applications d’IA. Profitant de la popularité de ChatGPT, des pages et des applications non officielles ont été créées pour distribuer des logiciels malveillants ou mener des cyber-attaques sur la base des informations collectées. Plus de 90 applications malveillantes ont déjà été détectées au cours de l’année écoulée, avec une fausse IA. Par conséquent, certaines réponses qui nous sont données par l’IA, qu’elles soient légales ou non, peuvent contenir des liens qui nous redirigent vers ces faux sites web ou applications (Phishing/Pharming), car l’IA d’origine ne vérifie pas s’ils le sont, elle les trouve simplement sur internet et nous les transmet en réponse à notre demande.
  4. Demandez toujours des sources pour vérifier les informations. Les informations fournies par l’AI n’indiquent pas la source dont elles proviennent, de sorte que la véracité et l’exactitude des informations peuvent être fausses ou incomplètes. Pour éviter cela, nous pouvons poser des questions qui nécessitent des sources ou les formuler de telle sorte qu’ils doivent fournir des réponses plus longues, afin qu’ils disposent de plus d’informations de base, et nous les empêchons d’inventer des textes.
  5. Soyez conscient des droits d’auteur des informations qui vous sont fournies par le chatbot.
    Les réponses générées par l’IA ne sont pas protégées par la loi sur le droit d’auteur, elles peuvent donc être utilisées librement sans demander d’autorisation ou obtenir une licence. Dans ces cas, il est important d’obtenir une autorisation ou une licence pour utiliser le contenu d’une manière spécifique, afin d’éviter d’enfreindre les droits de propriété intellectuelle d’autrui.

NOTE IMPORTANTE: Si, même en respectant toutes ces mesures, vous rencontrez des situations qui ne sont pas conformes au niveau de sécurité requis ou établi dans les politiques internes, n’hésitez pas à en informer votre supérieur hiérarchique, le CISO Security Officer et le service informatique, afin qu’ils puissent vous conseiller de manière appropriée. Sur le plan personnel, signalez la cyberattaque aux autorités policières.

*Date d’envoi : 21 avril 2025