Selon Gartner, 20 % de l’ensemble des demandes de service client entrantes proviendront de clients-machines d’ici 2026. La montée en puissance des agents non humains, y compris les assistants virtuels et les appareils intelligents, nécessitera des stratégies spécifiques pour que les entreprises puissent traiter les demandes des clients-machines à l’échelle, comme le renforcement des canaux de chatbot d’entreprise ou l’investissement dans des plateformes d’Intelligence Artificielle (IA) conversationnelles.
Evolution de la gestion des chatbots pour les entreprises
Pour traiter efficacement les clients-machines, il faut disposer d'un moyen évolutif de fournir des données rapides et précises à des demandes spécifiques. Voici ce que les entreprises attendent des outils d'IA pour offrir un bon service aux clients humains et aux clients-machines.
Les déploiements actuels de chatbots nécessitent une formation initiale et continue pour que les modèles de traitement du langage naturel (NLP) puissent comprendre les intentions de l'utilisateur et extraire des "entités". Les outils d'IA à grand modèle de langage (LLM) - tels que ChatGPT ou encore Macaw, pour n’en citer que quelques-uns - offrent un apprentissage de type ʺzero-shotʺ. Cette approche n’appelle pas nécessairement au recours à des données d'entraînement pour obtenir le même résultat de classification.
Cependant, les LLM contiennent de très importantes quantités de données par rapport à la base de connaissances d'une entreprise de taille moyenne. Ainsi, dans certains cas, remplacer les données générales est encore nécessaire afin d’apporter des réponses spécifiques aux clients. Tout dépend de la qualité et de la fraîcheur des données sur lesquelles le modèle doit travailler.
D'autres LLM d'entreprise sont désormais disponibles et de nouveaux cas d'utilisation tels que l'extraction d'informations utiles à partir de journaux et de tickets permettent de répondre aux questions des utilisateurs. Par exemple, un agent d'assistance peut utiliser un LLM d'entreprise pour extraire différentes informations d'un journal d’événements (log) de ticket IT ou d’un log de chat. Il peut notamment se concentrer sur le problème, la cause initiale, ou encore la résolution et les rassembler dans un document d’analyse des causes profondes (Root Cause Analysis – RCA).
Les utilisateurs peuvent également obtenir des "réponses" concises et précises à leurs demandes de recherche, au lieu de se voir proposer une série d'URL. Ne serait-il pas extraordinaire de pouvoir désormais "discuter avec sa base de connaissances" ou "avoir une conversation avec ses données d'entreprise" ? Tout cela est réalisable parce qu’il est aujourd’hui possible de configurer et de hiérarchiser le LLM pour qu'il renvoie des réponses issues d'une base de connaissances d'entreprise bien gérée. Alors que les entreprises se concentrent sur un avenir où il est possible de s'adapter aux changements et de prospérer dans un contexte de transformation rapide, les LLM sont l'un des outils à leur disposition, et elles les expérimentent activement pour fournir des réponses précises aux employés de manière fiable, sécurisée et transparente.