L’IA vertueuse ou dangereuse ?
Même si le terme « dangereuse » est un peu fort, il interpelle. C’est là tout l’objet des formations qu’a organisé PLANETE CSCA en demandant à l’ESA (École Supérieure d’Assurance) et Stoïk d’apporter leur réponse. Celle-ci est sans appel : l’IA oui, mais avec vigilance. Interview croisée de Patrick Guezais, directeur général de l’ESA et de Ayoub Mellah, expert cybersécurité de Stoïk.
16 / 12 / 2024
L’ESA et Stoïk ont récemment participé à des réunions sur l’IA organisées par PLANETE CSCA. Pouvez-vous nous en dire plus sur le but de ces rencontres ?
P.G. : L’ESA souhaitait sensibiliser les courtiers à l’utilisation de l’intelligence artificielle (IA) pour leur activité mais aussi à la cybersécurité. L’idée était de montrer comment l’IA peut faciliter leur travail tout en soulignant les risques de sécurité associés.
A.M. : Ces rencontres avaient pour objectif principal de sensibiliser les participants aux risques inhérents à l’usage de l’IA, notamment en matière de cybersécurité. L’accent a été mis sur l’importance de promouvoir les bonnes pratiques permettant de bénéficier pleinement des avantages offerts par ces technologies tout en se prémunissant contre des usages potentiellement malveillants ou imprudents.
Ces échanges ont donc permis de poser les bases d’une réflexion collective autour d’une utilisation responsable et sécurisée de l’intelligence artificielle.
Deux points de vue a priori totalement opposés.
P.G. : En fait complémentaires. On ne peut décemment utiliser l’IA sans en connaitre certains risques.
Le courtage d’assurances est au cœur d’une transformation numérique sans précédent et l’IA y jouera un rôle moteur. Que ce soit dans l’amélioration de la gestion des risques, l’optimisation des parcours clients ou encore l’automatisation des processus internes, l’IA offre des solutions qui redéfinissent les standards de l’efficacité et de la personnalisation.
Il nous semble donc primordial d’attirer l’œil des courtiers sur le fait que l’IA contribue à une meilleure analyse des données clients et à la proposition de solutions sur mesure mais que son utilisation dans un secteur où protection des données et transparence sont primordiales, doit être éthique. En bref, l’IA n’est pas anodine et il convient de s’y former, de s’y adapter et in fine d’en tirer parti.
Nous sommes convaincus que la clé du succès réside dans une synergie harmonieuse entre expertise humaine et intelligence artificielle que l’on dit Intelligence augmentée. L’avenir du courtage dépendra de la capacité de notre écosystème à évoluer, s’adapter et capitaliser sur les innovations tout en préservant l’essence du métier de courtier : la relation de confiance et l’accompagnement sur mesure.
À travers cette initiative, nous visons à sensibiliser l’ensemble des parties prenantes et à construire un dialogue ouvert sur la manière dont l’IA peut être un levier de croissance durable pour le secteur. L’IA n’est pas seulement un outil technologique ; elle représente un vecteur d’amélioration de l’expérience client, de productivité et de compétitivité pour les courtiers.
C’est pour cela que ‘École Supérieure d’Assurances (ESA) propose une formation innovante intitulée « Intelligence augmentée », spécialement conçue pour les professionnels du secteur de l’assurance. Cette formation vise à intégrer efficacement l’Intelligence Artificielle (IA) dans les opérations quotidiennes et les stratégies de développement des entreprises d’assurance pour :
- acquérir une base solide sur les concepts essentiels de l’IA, son évolution et son application spécifique au secteur de l’assurance ;
- approfondir les principaux outils tels que le machine learning, le deep learning et le traitement du langage naturel, en les adaptant aux besoins du domaine assurantiel ;
- mettre en pratique lors d’ateliers spécifiques pour planifier et conceptualiser l’intégration de l’IA dans les processus internes de l’entreprise ;
- élaborer une charte éthique et adopter des bonnes pratiques pour l’utilisation de l’IA, en mettant l’accent sur la sécurité des données et la conformité réglementaire ;
- optimiser les processus internes et développer des stratégies renforçant la compétitivité et la rentabilité de l’entreprise grâce aux capacités de l’IA.
Toutefois, l’utilisation de ces technologies nouvelles doit être pondérée car elle peut aussi être source de nuisances.
AM : En effet, les attaques par phishing exploitent des modèles d’intelligence artificielle pour en accroître l’efficacité et la sophistication. Ces attaques, rendues plus crédibles grâce à l’IA, deviennent ainsi beaucoup plus difficiles à identifier pour les cibles visées.
De manière générale, l’intelligence artificielle démocratise des techniques auparavant réservées à des acteurs particulièrement expérimentés. Elle met désormais à la portée de hackers peu aguerris l’exploitation de vulnérabilités complexes, tout en leur offrant des moyens de contourner efficacement des solutions de protection avancées telles que les EDR ou les pare-feu applicatifs. Cette évolution constitue un bouleversement majeur dans le paysage de la cybersécurité.
Pouvez-vous donner un exemple de ces attaques ?
AM : Les cybercriminels exploitent désormais l’IA pour rédiger des e-mails de phishing d’une qualité redoutable, imitant à la perfection les communications officielles, notamment celles émanant de banques ou d’institutions publiques. Ces attaques gagnent en sophistication grâce à l’IA, qui génère des messages exempts de fautes, au style irréprochablement professionnel, augmentant ainsi leur crédibilité et leur impact.
Ce type de campagne est d’autant plus efficace qu’il s’appuie sur des leviers émotionnels puissants : l’excitation générée par un événement d’envergure, la crédibilité apparente du message, et l’appât d’une opportunité alléchante. Tous ces éléments réunis créent un contexte idéal pour piéger même les individus les plus prudents.
Comment Stoïk aide-t-il les entreprises à se protéger de ces menaces ?
AM : Chez Stoïk, nous proposons une approche complète pour aider les entreprises à se prémunir des cybermenaces, en mettant la technologie et l’expertise en cybersécurité au service de notre produit d’assurance. Nous avons développé une plateforme de prévention nommée Stoïk Protect qui est automatiquement incluse dans le produit d’assurance et qui permet à chaque assuré d’être notifié en cas de nouvelle vulnérabilité détectée sur son système d’information grâce à des scans (externe et internes) et un outil de simulation de phishing qui tournent en continu. En plus de renforcer la cybersécurité du système d’information de nos assurés, nous faisons baisser de 50 % la fréquence des incidents cyber grâce à cette méthode.
Pour aller plus loin, nous proposons l’offre Stoïk MDR, une solution managée d’EDR (Endpoint Detection and Response). Cette technologie détecte, surveille et répond en temps réel aux menaces ciblant les terminaux (ordinateurs, serveurs, etc.). Grâce à une supervision 24/7 par le CERT-Stoïk, les alertes sont analysées en continu et les menaces neutralisées automatiquement, offrant une protection renforcée et réactive. Avec ces outils et services, nous accompagnons les entreprises dans une gestion proactive et efficace de leur cybersécurité, réduisant à la fois les risques d’attaques et leurs conséquences.
Que recommandez-vous aux utilisateurs d’IA pour garantir la sécurité de leurs données ?
AM : Les utilisateurs doivent éviter de partager des informations sensibles ou confidentielles avec les outils d’IA, car ces données peuvent être réutilisées pour entraîner ou réentraîner les modèles. L’accès aux données sensibles doit être strictement restreint aux utilisateurs autorisés.
Il est également important d’utiliser des mots de passe complexes, de configurer une double authentification pour chaque compte. La mise en place de systèmes d’authentification robustes, telle que l’authentification multifactorielle (MFA), est indispensable pour réduire les risques d’accès non autorisé.
Nous recommandons de s’assurer que l’utilisation de l’IA est conforme aux lois en matière de protection des données personnelles et de respect de la vie privée, telles que le RGPD en Europe ou la HIPAA aux États-Unis. Ces réglementations imposent des standards élevés pour protéger les droits des utilisateurs et la confidentialité des informations.
Lorsqu’un outil d’IA interagit avec des clients (chatbots, assistants virtuels, etc.), il est recommandé d’utiliser des protocoles sécurisés pour toutes les communications afin de garantir la confidentialité et l’intégrité des échanges.
Enfin, il est crucial de former régulièrement les employés sur les bonnes pratiques de sécurité et sur l’utilisation des outils d’IA. Une sensibilisation continue permet d’assurer une manipulation sécurisée des technologies et de renforcer la posture globale de sécurité de l’entreprise.
En résumé, l’ESA encourage l’usage de l’IA, mais vous insistez sur la vigilance ?
AM : Exactement, l’intelligence artificielle est un outil puissant, mais elle peut aussi être exploitée par des cybercriminels. Ces derniers utilisent l’IA pour concevoir des attaques plus sophistiquées, difficiles à détecter, et aux conséquences potentiellement graves. La fréquence et l’efficacité de ces attaques ont considérablement augmenté, exigeant une surveillance constante et des outils adaptés. Aussi, une vigilance humaine est indispensable pour analyser la menace, ajuster les stratégies et gérer les situations que l’automatisation seule ne peut pas résoudre.
En résumé, si l’IA est un atout majeur en cybersécurité, elle ne doit pas être utilisée sans discernement. Associer technologie avancée et expertise humaine est indispensable pour garantir une sécurité optimale et répondre efficacement aux défis posés par les cybermenaces modernes, et c’est ce que nous proposons chez Stoïk.
Vous êtes intéressé par :