Le géant du CRM opère un virage stratégique majeur. Après des mois de tests en production, l’entreprise reconnaît les limites des grands modèles de langage pour les processus critiques. Une leçon de sobriété technologique.
Il y a dans l’aveu de Salesforce quelque chose de rare dans l’industrie technologique : une forme d’humilité. Sanjna Parulekar, vice-présidente senior du marketing produit, l’a formulé sans détour lors d’une récente intervention : « Nous étions tous plus confiants dans les grands modèles de langage il y a un an. » La phrase circule désormais dans les cercles informés de la Silicon Valley comme un signal de dégrisement collectif.
Salesforce, qui détient 27,8 % du marché mondial du CRM, avait misé gros sur l’intelligence artificielle générative. Marc Benioff, son dirigeant, avait qualifié 2024 d’année du « hard pivot » vers l’IA agentique. Le Dreamforce de septembre était rebaptisé « Welcome to Agentforce ». L’enthousiasme était total. Il était aussi prématuré.
Quand les machines oublient
Ce que les ingénieurs de Salesforce ont découvert en production relève d’une mécanique impitoyable. Au-delà de huit instructions complexes dans un prompt, les modèles commencent à sauter des étapes. Huit. Pas vingt, pas cinquante. Huit. Pour une entreprise dont les clients gèrent des flux de facturation, de conformité réglementaire ou de service après-vente, ce seuil est rédhibitoire.
Le cas de Vivint illustre le problème. Cette entreprise utilise Agentforce pour gérer le support de 2,5 millions de clients. Malgré des instructions explicites demandant l’envoi d’un sondage de satisfaction après chaque interaction, les sondages n’étaient parfois tout simplement pas envoyés. L’agent oubliait. Ou décidait autrement. Nul ne sait vraiment.
Un second phénomène, baptisé « drift » par les équipes techniques, aggrave le tableau. Lorsqu’un utilisateur pose une question hors sujet au milieu d’un processus, l’agent perd le fil. Il ne revient pas au formulaire à compléter, à la commande à valider, au ticket à clôturer. Il dérive. Dans un contexte conversationnel décontracté, ce comportement serait anecdotique. Dans un contexte transactionnel, il est disqualifiant.
Du probabiliste au déterministe
La réponse de Salesforce n’est pas l’abandon de l’IA. C’est sa relégation. Le modèle de langage, hier au centre de l’architecture, se retrouve cantonné à l’interface — comprendre la demande, formuler une réponse humaine. L’exécution des tâches critiques revient à des scripts déterministes, des API, des déclencheurs automatiques. Ce que l’industrie appelle désormais des « guardrails » : des garde-fous qui encadrent l’imprévisibilité du modèle.
Chez Vivint, la correction a consisté à remplacer l’instruction probabiliste par un déclencheur mécanique. Le sondage part désormais automatiquement, sans que l’agent ait son mot à dire. La fiabilité est revenue à cent pour cent. Mais l’intelligence, au sens où l’entendait la promesse initiale, a disparu de l’équation.
Cette architecture hybride — le LLM pour parler, le code pour agir — redéfinit les attentes. Salesforce facture désormais Agentforce à environ dix centimes par action exécutée, dans un modèle de « travail numérique » à la consommation. Près de dix mille contrats ont été signés fin 2025. La demande existe. Mais elle porte sur autre chose que ce qui avait été annoncé.
Ce que révèle cette correction de trajectoire
L’industrie technologique a longtemps confondu deux formes d’intelligence. L’intelligence conversationnelle — la capacité à formuler des phrases cohérentes, à simuler la compréhension — et l’intelligence opérationnelle — la capacité à exécuter des actions sans erreur, de manière répétable et vérifiable. Les grands modèles de langage brillent dans la première. Ils échouent dans la seconde.
Salesforce a simultanément réduit ses effectifs de support de neuf mille à cinq mille personnes, soit environ quatre mille postes. Marc Benioff l’assume : « J’ai besoin de moins de têtes. » L’IA ne remplace pas les humains par une intelligence supérieure. Elle permet de s’en passer grâce à une automatisation plus rigoureuse — ce qui n’est pas tout à fait la même promesse.
Pour les entreprises qui observent ce virage, la leçon tient en quelques principes. Traiter les LLM comme une couche de fonctionnalité, pas comme une fondation. Auditer la fiabilité des flux automatisés. Identifier les étapes où les instructions sont ignorées. Refactorer les chemins critiques vers une logique déterministe. Garder le modèle pour les interactions langagières. Le retirer des actions qui engagent la responsabilité de l’entreprise.
La valeur, en 2026, ne réside plus dans la taille du modèle. Elle réside dans la solidité des garde-fous. La fiabilité est devenue la nouvelle différenciation. C’est moins spectaculaire qu’une démonstration conversationnelle. C’est infiniment plus utile.


