Dans un monde de plus en plus connecté et technologique, les entreprises cherchent constamment à améliorer leurs processus et à s’adapter aux défis qu’elles rencontrent. Parmi ces défis, la gestion des situations de crise est cruciale pour assurer la pérennité et la réputation d’une entreprise. 

ChatGPT, l’outil d’intelligence artificielle développé par OpenAI, a gagné en popularité ces derniers mois. Nous nous sommes donc demandé si ChatGPT pouvait être utilisé pour gérer des situations de crise dans le monde de l’entreprise. L’une des meilleures manières d’obtenir une réponse était tout simplement de lui poser directement la question !

ChatGPT est une intelligence artificielle basée sur le modèle GPT (Generative Pre-trained Transformer). Il a été entraîné sur un vaste corpus de textes, ce qui lui permet de comprendre le contexte d’une conversation et de fournir des réponses pertinentes et cohérentes. ChatGPT peut être utilisé pour générer du texte dans divers domaines, tels que la rédaction d’essais, d’articles, et de contenu marketing.

La gestion de crise en entreprise selon ChatGPT

« Bien que ChatGPT soit un outil puissant pour générer du texte et interagir dans des conversations, il est important de prendre en compte ses limites lorsqu’il s’agit de gérer des situations de crise en entreprise. Voici quelques points à considérer :

  1. Compréhension du contexte : ChatGPT a été entraîné sur un large éventail de textes et est capable de comprendre le contexte d’une conversation. Cependant, il peut ne pas avoir une compréhension suffisamment profonde des problèmes spécifiques à une entreprise ou à une industrie particulière, ce qui pourrait limiter son efficacité dans la gestion des crises.
  1. Réactivité et adaptabilité : dans une situation de crise, il est essentiel de réagir rapidement et de s’adapter aux changements. Bien que ChatGPT puisse fournir des réponses en temps réel, il n’est pas certain qu’il puisse s’adapter aussi rapidement et efficacement qu’un gestionnaire de crise humain.
  1. Sensibilité émotionnelle : les situations de crise peuvent être chargées d’émotions et nécessitent souvent une approche empathique et compréhensive. ChatGPT, en tant qu’IA, pourrait ne pas être en mesure de saisir pleinement les nuances émotionnelles et de réagir de manière appropriée.
  1. Responsabilité et éthique : l’utilisation d’une IA telle que ChatGPT pour gérer des situations de crise soulève des questions d’éthique et de responsabilité. »

Gestion de crise : du virtuel au réel

Revenons sur les 4 points évoqués par cette intelligence artificielle et confrontons-les à la réalité de la situation en période de crise. 

Par définition, gérer une crise revient à créer un modèle de réponse qui n’existe pas. Ce modèle doit suivre la philosophie originelle et originale, à savoir une histoire qui génère des impacts (Personne, Activités, Image, Responsabilités et Environnement) ainsi que des attentes parmi les parties prenantes. Pour y répondre, il faut mettre en pratique un plan d’action, sans oublier les éléments de contexte. En effet, ces derniers viennent modifier en permanence la sévérité des conséquences ainsi que les attendus des protagonistes et des « victimes ». 

Compréhension du contexte 

La réponse de ChatGPT est claire sur ce point. Il ne peut pas intégrer l’ensemble des éléments du contexte le jour de la crise. Il ne peut les constater qu’a posteriori, après avoir étudié les analyses réalisées par des spécialistes. 

Avoir une vision précise de la situation au début de chaque crise est l’un des objectifs immédiats à atteindre, même si cela n’est pas toujours simple. En effet, il est nécessaire de dépasser la gestion des causes pour s’attaquer à la gestion des conséquences. Cette équation se résume à la combinaison de deux inconnues : la sévérité des impacts et les attendus des parties prenantes. 

La recherche de solutions à cette équation permet de dégager des priorités et ainsi d’implémenter des plans d’action en adéquation avec les attendus. 

Réactivité et adaptabilité 

La résolution d’une situation de crise passe très souvent par deux étapes complémentaires : la réponse d’urgence et la gestion de crise.

La réponse d’urgence permet de faire face à des scénarios préétablis durant lesquels l’organisation est connue à l’avance. Celle-ci est prévue notamment pour gérer les conséquences immédiates, en s’appuyant sur parties prenantes déjà intégrées dans les actions à mener.

A partir des informations déjà présentes sur Internet, ChatGPT pourrait reprendre, le cas échéant, les plans ainsi préparés. Même s’il ne possède pas encore la capacité à évaluer la situation in situ, il pourrait dégager les premiers axes à suivre en cas d’absence de réponses initiales.

Néanmoins, la période de crise nécessite toujours une certaine adaptation. D’une part, parce qu’elle impose un véritable changement de posture, et d’autre part, parce que nous devons accepter une situation pour laquelle les réponses habituellement utilisées ne fonctionnent pas. Ce qui nécessite d’adapter le modèle en en créant un nouveau. Le copier-coller que pourrait générer ChatGPT ne permettrait pas de prendre en compte la totalité des attendus. De plus, l’IA serait sans doute bien dépourvue face à la création d’un modèle inconnu brouillé en permanence par la sévérité des impacts, les attentes variables et variées des parties prenantes ainsi que les éléments de contexte endogènes et exogènes.

Sensibilité émotionnelle 

La période de gestion de crise nécessite une posture où l’empathie prend toute sa place. Celle-ci débute obligatoirement par une phase d’écoute active des parties prenantes, en particulier celles impactées et impliquées dans la résolution. 

L’écoute active est la condition absolue à la mise en place de l’empathie créatrice de liens entre les membres d’une cellule de crise et les parties prenantes. Il semble que ChatGPT ne puisse en faire preuve. Il sera possible, à la rigueur, de l’utiliser pour générer des « communiqués de presse », des éléments de langage où seule la compassion pourra faire son apparition.

Responsabilité et éthique

Il apparaît clairement que ChatGPT ne peut pas prendre en compte la totalité des attendus en période de gestion de crise. Celle-ci nécessite obligatoirement une véritable responsabilité. La prise de décisions revient donc à un être humain. 

La plus grande difficulté « éthique » ne consiste pas à suivre uniquement ce qui a été écrit en temps de paix dans les chartes. Le véritable souci concerne l’apport de réponses rationnelles dans un environnement fortement émotionnel et relayé en permanence par les réseaux sociaux ainsi que les médias.

Être responsable en période de gestion de crise signifie avant tout prendre en compte la situation telle qu’elle est et y apporter des réponses par l’intermédiaire de plans d’action. La création de ce nouveau modèle de réponse ne peut pas, à ce jour, être réalisée par l’intelligence artificielle.

Être éthique en gestion de crise revient à prendre en compte les attentes des parties prenantes, en particulier celles qui sont impactées par l’événement. Encore une fois, les périodes d’écoute, d’empathie et d’acceptation des demandes ne peuvent pas être effectuées par un « automate ». Il est tout à fait probable que ChatGPT se limiterait à gérer les risques sans comprendre les attendus des parties prenantes. 

Dans une période où se côtoient les termes « permacrise » et « impermanence », l’être humain se tourne logiquement vers l’alternative de l’IA. Néanmoins, quand la situation le demande, il n’y a pas d’autres possibilités que de gérer la crise avec nos forces et faiblesses actuelles. Nous n’avons pas les outils génétiques pour gérer cette situation extraordinaire. Nous apprenons à chaque situation, sans oublier que tout ce qui est écrit ne fonctionnera pas correctement. Nous constatons donc que ChatGPT n’est pas encore capable d’apporter des réponses rationnelles à une situation de crise. L’être humain et la dynamique de groupe restent les moteurs principaux des réponses à apporter. 

Le savant n’est pas l’homme qui fournit de vraies réponses ; c’est celui qui pose les vraies questions.

Claude Levi-Strauss

LILIAN LAUGERAT

PRÉSIDENT DE SOLACE ET EXPERT EN GESTION DES RISQUES SÛRETÉ

Lilian Laugerat dirige le cabinet de conseil Solace, spécialisé dans l'analyse des risques sûreté et la posture de gestion de crise. Solace est une entité de Cecys Group, filiale du Groupe Goron.

Lire aussi

L’ingénierie sociale : le facteur humain
comme maillon faible de la sécurité des entreprises

Sécurité & Sûreté humaine
17 octobre 2023

La protection contre les cybermenaces passe nécessairement par une sécurisation des réseaux informatiques. Mais qu’en est-il du facteur humain ? Le personnel peut constituer un redoutable vecteur d’attaque, et les pirates l’ont bien compris. Aussi sournoises qu’efficaces, les tactiques d’ingénierie sociale exposent les organisations à des risques sérieux. En quoi consiste cette menace…