On reconnaît les déploiements sérieux à un détail trivial : la réunion finit toujours par basculer sur le juridique, la sécurité, ou les données. Pas parce que l’entreprise “a un problème”. Parce qu’elle a enfin une prise. Tant que l’IA reste un gadget de démonstration, elle ne heurte rien. Dès qu’elle s’approche d’un processus, d’un client, d’un contrat, d’un chiffre, elle rencontre des murs. Et c’est précisément là que commence le travail.
Le rapport 2025 de McKinsey sur l’état de l’IA met le doigt sur un paradoxe utile. L’adoption est massive — près de neuf organisations sur dix déclarent utiliser l’IA régulièrement dans au moins une fonction. Mais la promesse de valeur reste inégalement distribuée. Une minorité seulement attribue un impact financier tangible à l’IA à l’échelle de l’entreprise, et la catégorie la plus avancée, les “AI high performers”, ne pèse qu’environ 6% des répondants : ceux qui déclarent que plus de 5% de l’EBIT et une “valeur significative” sont attribuables à l’IA.
Ce qui sépare ce 6% du reste n’est pas une “meilleure technologie”. C’est une densité d’usage. Les high performers ne se contentent pas d’un binôme confortable — marketing et code — où l’IA brille vite et s’excuse facilement. Ils l’étendent. Ils la font entrer dans des fonctions où l’erreur coûte : finance, produit, opérations, risque, juridique. Le rapport montre d’ailleurs la progression globale : la part d’organisations déclarant utiliser l’IA dans trois fonctions ou plus a nettement monté depuis 2021, et l’usage dans cinq fonctions ou plus existe, mais reste minoritaire. Le contraste est révélateur : beaucoup “ont” de l’IA, peu “sont” transformés par elle.
L’argent suit la parole, mais seulement quand la parole est tenue. McKinsey observe que plus d’un tiers des high performers engagent plus de 20% de leur budget digital dans les technologies IA — un niveau d’intention qui n’a rien à voir avec un pilote. Là, la friction n’est plus un accident, c’est une conséquence. On ne met pas ce volume de budget sans toucher aux architectures, aux référentiels, aux chaînes de validation, aux règles d’achats, à la gestion des fournisseurs, à la responsabilité en cas d’incident.
Et c’est ici que votre intuition — “plus d’incidents chez les meilleurs” — devient factuellement intéressante. McKinsey note que les organisations les plus performantes rapportent davantage de conséquences négatives, notamment sur l’infraction de propriété intellectuelle et les sujets de conformité réglementaire. Dit autrement : les leaders voient plus de risques parce qu’ils exposent l’IA à plus de situations réelles. Dans l’enquête, plus de la moitié des répondants disent avoir connu au moins une conséquence négative liée à l’IA, et l’inexactitude est le risque le plus fréquemment cité. La maturité ne consiste pas à promettre le “zéro risque”. Elle consiste à construire des garde-fous assez concrets pour que l’IA puisse travailler quand même : validation humaine définie, traçabilité, politiques de données, contrôles, arbitrages.
La “crise de l’expérimentation éternelle” ressemble alors moins à un manque d’idées qu’à un manque de courage organisationnel. Les entreprises restent dans le bac à sable pour éviter ce que le passage à l’échelle impose : choisir des cas d’usage où l’IA peut réellement déplacer une métrique, accepter que cela crée des problèmes juridiques et techniques, puis investir dans la capacité à les résoudre. La transformation n’est pas un outil, c’est une discipline.
Ce que vous pouvez copier, sans romantisme : étendre l’IA au-delà de trois départements, et surtout accepter que la première preuve de sérieux ne sera pas un “wow effect”, mais un ticket d’incident, une clause contractuelle à renégocier, un comité de validation à créer. Le mal de tête n’est pas un échec. Il est souvent le premier signal que l’IA vient de quitter la vitrine.
La suite sur www.luxsure.ai


