On entend beaucoup parler d'IA en industrie. Beaucoup de promesses, peu de retours terrain honnêtes. Voici ce que j'ai appris en déployant deux outils IA dans une usine agroalimentaire de 120 personnes — ce qui a fonctionné, et surtout ce qui n'a pas fonctionné au départ.
Le contexte
Une usine de charcuterie sèche. Des ensacheuses complexes, une documentation technique de 111 documents, plus de 3 000 pages, en 6 langues. Des conducteurs de ligne et des techniciens de maintenance qui perdent du temps à chercher l'information — quand ils la trouvent.
L'objectif : un agent conversationnel capable de répondre aux questions terrain en langage naturel. Développé avec l'Institut Français de l'IA, basé sur Orange Data Mining.
Ce qui n'a pas marché (au début)
1. Le fossé entre langage usine et langage constructeur
C'est le problème numéro un, et on ne l'anticipe jamais assez.
Un exemple concret : pour désigner l'opération de découpe arrondie du sachet, les opérateurs disaient contour-cutter et demi-as-de-carreau. Dans la notice constructeur, le terme était estampage. Résultat : les questions ne trouvaient pas de réponse.
Même problème avec le mot alimentation : en langage usine, ça veut dire alimentation en film ou en saucisson. Dans le manuel technique, c'est presque toujours alimentation électrique. L'outil répondait à côté.
La solution : construire un lexique de correspondance entre les deux mondes, et ajouter des formulations explicites du type "alimentation en saucisson n'est pas alimentation électrique".
2. Des machines achetées séparément, une documentation en silo
L'ensacheuse, la trieuse pondérale, la peseuse associative, l'étiqueteuse — quatre machines, quatre constructeurs, quatre manuels. Mais en pratique, résoudre un problème sur n'importe laquelle nécessitait souvent de croiser le manuel principal avec les manuels spécifiques.
L'IA retournait des réponses brouillon et inadaptées. Il a fallu lire attentivement l'ensemble de la documentation et supprimer les parties non pertinentes pour chaque cas d'usage.
3. Les images, schémas et tableaux que l'IA ne voit pas
Beaucoup de documents techniques s'appuient sur des visuels. Un LLM (le moteur de l'agent conversationnel) travaille uniquement avec du texte. Un schéma sans description, c'est une page blanche.
Pour que l'outil puisse répondre à des questions liées à ces visuels, il faut les décrire en texte dans la documentation. Exemple : remplacer une photo d'écran de commande par "l'écran affiche trois zones : en haut à gauche le bouton rouge d'arrêt d'urgence, au centre l'indicateur de vitesse..."
Techniquement, le LLM transforme chaque morceau de texte en vecteur numérique (c'est ce qu'on appelle un embedding) pour pouvoir faire des recherches par similarité. Si le texte source est incomplet ou mal structuré, les réponses le sont aussi. Réécrire les passages visuels en texte descriptif a considérablement amélioré la pertinence des réponses.
4. Des documents Word mal structurés
Certains documents internes étaient construits avec des encarts, des zones de texte flottantes. L'IA ne lisait pas ces zones — les embeddings étaient faux ou partiels. La conversion en PDF ou Markdown a résolu le problème.
5. Les angles morts de la connaissance
Malgré 3 000 pages ingérées, certaines questions restaient sans réponse. Ce n'est pas un échec — c'est un diagnostic. L'outil a permis de mesurer ce qu'on ne savait pas, et de demander des documents complémentaires aux constructeurs ou d'écrire des procédures internes là où il n'en existait pas.
La résistance des équipes
Dans les médias, IA veut dire deepfakes, pertes d'emploi, fake news. Dans la vie quotidienne des opérateurs, ça veut dire chats qui dansent sur TikTok. Ce n'est pas exactement rassurant.
Il a fallu démystifier : ce que fait l'outil, ce qu'il ne fait pas, pourquoi il est là. Un outil d'aide, pas de remplacement. La phase d'apprentissage — comment poser une question, comment approfondir, comment creuser — a été indispensable.
Ce qui a fonctionné
Une fois ces obstacles levés, les résultats ont été au rendez-vous : montée en compétences accélérée sur la conduite des lignes, TRS en hausse, moins de temps perdu à chercher l'information dans des manuels en japonais ou en allemand.
Un deuxième outil, basé sur la même documentation, génère automatiquement des checklists de redémarrage et de nettoyage — pour maximiser les chances de repartir sans incident.
Mon opinion franche
L'IA en usine, c'est ni surestimé ni sous-estimé. C'est mal utilisé.
Mettre en place un LLM généraliste ne sert pas à grand-chose dans des contextes spécifiques. Ce qui fonctionne : identifier un problème précis, construire l'outil en collaboration étroite avec les équipes terrain, itérer, accepter les échecs, mesurer.
La transparence sur les échecs est aussi importante que la communication sur les réussites. C'est ce qui permet d'améliorer l'outil — et de gagner la confiance des équipes.
Voir la réalisation complète : Retournement de situation — Groupe Loste
Optimizer Labs accompagne les industriels de l'agroalimentaire sur leurs projets d'optimisation et de déploiement IA. Vous avez un projet ? →