Qu’est-ce que l’IA générative
C’est une sous-catégorie de l'IA qui génère des contenus (textes, images, musique) que l’on pourrait croire créés par des humains. Elle diffère de l'IA conversationnelle par sa capacité à produire des réponses uniques et probabilistes basées sur les données d'entraînement et les instructions fournies.
L’arrivée de l’IA rappelle celle de la bureautique, puis d’internet, puis de l’infonuagique, qui se sont caractérisés par des changements organisationnels significatifs, sans retour en arrière.
Pourquoi utiliser l'IA générative dans les entreprises
Les dirigeants sondés cherchent à adopter l'IA générative d’abord et avant tout pour améliorer la productivité et le service client, même s’ils se demandent dans le même souffle comment intégrer cette technologie sans créer une dépendance excessive des employés à l’égard de ces nouveaux outils. Soyons honnêtes, cette dernière préoccupation n’est pas en haut de la liste, d’autant que l’IA va sans doute provoquer une rationalisation des effectifs (en clair des licenciements).
Quels usages pour l’IA générative en entreprise.
Les usages les plus évidents touchent l'amélioration de la productivité des employés (comme la création de contenus), l'engagement des clients (via des chatbots, robots conversationnels de plus en plus efficaces et pertinents), la R&D, le développement logiciel automatisé, l’aide à la prise de décision notamment par la capacité à produire des données ou les analyser, et plus encore.
Toute médaille ayant son revers, passer de la mise en situation à la mise en pratique n’est pas si simple. Plusieurs critères sont à prendre en compte :
- Conformité : les organisations doivent se mettre en conformité avec loi, en particulier la loi 25 quant à l’usage et la protection des renseignements personnels. Et les usagers sont très conscients (et rassurés) de cette obligation.
- Sécurité: en lien direct avec le point précédent, la sécurité est essentielle pour une organisation notamment avec l’augmentation croissante des attaques informatiques, dont certaines reposent d’ailleurs sur l’IA ! Mais ce n’est pas le seul enjeu : les grands modèles d’IA (Gemini, ChatGPT, Co-pilote et les autres) sont des solutions propriétaires. Pour profiter de leur puissance, les organisations doivent leur communiquer leurs données… ce qui est problématique au regard de la loi et de la propriété intellectuelle. C’est bien pour cette raison que nombre d’organisations ont demandé à leurs employés de cesser d’utiliser ChatGPT à tout bout de champ (2). C’est aussi ce qui explique la montée de solutions alternatives, basées sur des IA Open source (comme ce qu’offre Mistral en France), qui peuvent donc être déployées en local et paramétrées selon les besoins propres de l’organisation.
- Qualité des données : elle influence la pertinence des résultats fournis. L’efficacité de l’IA dépend de la capacité à lui fournir des données, beaucoup de données et des données fiables. D’où l’intérêt des IA open source (code ouvert) que l’on vient d’évoquer. Ce genre d’approche permet d’élaborer des solutions sures, sur-mesure, moins gourmandes, plus performantes et nourries aux données de l’organisation.
- Les biais : on en observe régulièrement puisque la programmation des algorithmes est influencée inconsciemment par leurs auteurs. Il y a un autre biais dont il faut se « méfier » c’est celui de la confiance aveugle envers des résultats fournis par une machine. À titre d’exemple (3) plusieurs hommes ont été accusés injustement de délits parce que le système de reconnaissance faciale (soutenue par de l’IA) de la police les avait identifiés comme suspects, malgré des éléments contradictoires évidents (comme la morphologie de l’un qui ne correspondait en rien à celle du coupable filmé par les caméras de surveillance, ou simplement l’impossibilité d’être sur les lieux).
- Les ressources consommées: c’est encore peu évoqué, mais l’IA consomme énormément d’eau pour la fabrication des puces notamment, mais aussi de l’énergie pour faire ses calculs et répondre à la multitude de requêtes qui lui sont soumises (4). Google évoque une consommation d’énergie de son IA équivalente à celle de 500.000 habitants. Il y a fort à parier que cet aspect s’invitera bientôt dans le débat public.
- La qualité des requêtes : l’art du « prompt » ou comment bien rédiger une commande nécessite un apprentissage et – pour l’instant – beaucoup d’essai-erreurs avant d’avoir un résultat réellement pertinent.
- Frein à l’innovation : cela peut sembler contre-intuitif puisque on attend de l’IA qu’elle multiplie les possibles en analysant les données. Pourtant deux éléments peuvent venir ralentir les capacités d’innovation d’une organisation. Le premier vient simplement du fait que l’IA, actuellement, ne consomme que des données disponibles pour bâtir ses « recommandations ». À court terme, elle va se retrouver à recycler des données qu’elle aura elle-même produite, pour fournir des analyses qui ne seront d’aucune utilité. Le second vient du fait que l’humain va « se reposer » sur l’IA pour toutes ses questions, là où c’est précisément sa force de réflexion et son esprit critique qui lui permettait d’avoir des idées originales. L’IA peut favoriser une certaine paresse de nos cerveaux et contribuer à la régression plus qu’à l’innovation.
Charge aux entreprises de prendre des mesures correctives face à ces éventualités, dont la liste n’est pas exhaustive.
Politique interne et gouvernance
Considérant la nature et la variété des risques liés à l’IA générative, les organisations doivent clarifier leur politique interne et leur gouvernance des données.
Parmi les points cités par Insight qui doivent faire l’objet d’un encadrement au niveau de l’organisation, on trouve :
- Les rôles et responsabilités des personnes en charge d’implanter l’IA générative;
- Une gouvernance claire, communiquée et appliquée;
- L’énoncé des bonnes pratiques en matière d’entrainement des modèles d’apprentissage;
- Une politique claire de la sécurité et de la confidentialité (qui a accès à quoi, à quel niveau, quelles données doivent être chiffrées, quel est le plan de réponse en cas d’incident, etc.);
- Des règles bien établies quant à la notion de propriété intellectuelle (et de plagiat) et son respect;
- Le suivi des recommandations de l’industrie pour ce qui relève de la conformité et des obligations légales;
- La formation des employés aux divers protocoles;
- Des processus de suivi et d’analyse.
L’IA, un outil gagnant-gagnant ?
Les formidables possibilités offertes par l’IA devraient permettre à chacun de tirer son épingle du jeu : les organisations gagnant en efficacité, productivité et pertinence… et les employés aussi ! Sous réserve d’implanter et déployer l’IA étape par étape.
Les entreprises doivent commencer à petite échelle et élaborer une preuve de concept. Quelque chose de mesurable avant d’envisager un déploiement global. Ce qui implique de clarifier les attentes en amont, au-delà des lignes budgétaires, afin d’évaluer les progrès réels. Cette approche des petits pas permet aussi au personnel comme aux outils de s’adapter.
Une fois cette phase conclue, reste à identifier les projets qui offrent le plus haut potentiel de valeur ajoutée et de gains rapides pour faciliter l’adhésion. Si le temps est compté, il ne faut pas confondre vitesse et précipitation.
Pour aller plus loin :
ITSM : Gestion et gouvernance des pratiques
(1) BEYOND HYPOTHETICALS: Understanding the Real Possibilities of Generative AI
[2] Il est à noter qu’il existe une version « entreprise » de ChatGPT qui est censée permettre, entre autres, une meilleure confidentialité des données. Cela reste néanmoins une solution propriétaire.
[3] How Wrongful Arrests Based on AI Derailed 3 Men's Lives - Wired
[4] ChatGPT & co : pourquoi le coût énergétique de l'IA pose un vrai problème