NEWS

Intelligence Artificielle: Entre Opportunités et Limites

Algofi a participé au Salon Tech Show Paris, qui s’est déroulé au parc des expositions de la porte de Versailles. Cet événement annuel a réuni des exposants des secteurs du Cloud, du DevOps, de la Cybersécurité, du Big Data, de l’Intelligence Artificielle, et tout particulièrement du centre de données.

Aujourd’hui, nous sommes ravis de partager avec notre communauté les connaissances et les découvertes que nous avons acquises au cours des différentes conférences de cet événement. Au cours de cette journée, une table ronde s’est déroulée, abordant le thème des opportunités et des limites de l’IA démocratisée pour les entreprises. Nous sommes impatients de vous faire part des enseignements tirés de ces échanges captivants.

Cette table ronde a été animée par Benoit RIGAUT , Directeur Innovation Technologique chez Chanel, Clémence Panet-Amaro , Head of Data à La Banque Postale, Pierre Delort , Professeur à Télécom Paris, Jean-Christophe Leboucher , Chief Data Officer pour les Franchiseurs Alain Afflelou, et enfin Yohann Laloue , Partner Conseil & Data chez Soma.

Après la présentation des intervenants par le Professeur Pierre Delort, celui-ci nous a éclairés sur quelques termes techniques liés au domaine de l’intelligence artificielle.

Le premier concept abordé était le LLM, ou Large Language Model, un langage qui permet à une intelligence artificielle d’apprendre à partir d’énormes volumes de données textuelles. Ensuite, il nous a introduits au RLFHF, ou Renforce Learning from Human Feedback, une approche d’apprentissage automatique combinant des techniques de renforcement, telles que des récompenses et des comparaisons, avec des conseils humains pour former un agent d’intelligence artificielle.

Ce début de table ronde a ouvert deux pistes de réflexion.

La première piste de réflexion concerne l’impact de Chat GPT sur les échanges de code sur Stack Overflow, une plateforme de partage de code entre développeurs. Il apparaît que l’utilisation de Chat GPT tend à réduire la contribution sur Stack Overflow, car cette technologie permet de répondre à plusieurs questions sans nécessiter le partage effectif de code. Depuis décembre 2022, Stack Overflow a même instauré des « sanctions » à l’encontre des utilisateurs publiant des réponses générées par Chat GPT, même si le contenu est jugé acceptable.

Il est important de noter que les LLM, tels que Chat GPT, ne prétendent pas à la privatisation d’une portion spécifique du code qui pourrait être créée et partagée. Cependant, en envisageant une utilisation plus répandue de Chat GPT, avec un code généré provenant toujours de la même source d’intelligence, il pourrait y avoir un risque de diminution à long terme du partage de code.

Ensuite, nous explorons le sujet de Harvey AI, une intelligence artificielle au service des avocats. Il est souligné que l’intelligence artificielle peut parfois générer ce que l’on qualifie d’« hallucinations », se traduisant par des réponses déconnectées du sujet initial.

Il est intéressant de noter que lorsque le Large Language Model (LLM) est adapté de manière personnalisée pour la profession, le taux d’hallucinations se situe en dessous de 5%.

Les intervenants commencent par souligner que nous vivons actuellement dans l’ère du printemps de l’intelligence artificielle. Cependant, la question qui se pose est la suivante : s’agit-il simplement d’un effet de mode ?

L’intelligence artificielle promet une excellence opérationnelle, ainsi que des prises de décision plus rapides et plus précises grâce à des assistants.

Cependant, certaines limites méritent d’être examinées. Tout d’abord, il est crucial de déterminer si l’essor de l’intelligence artificielle est simplement un effet de mode ou s’il s’inscrit dans une tendance durable. Ensuite, considérant que l’intelligence artificielle gère actuellement la plupart des tâches « simples », une question se pose quant à la formation des collaborateurs juniors. Quelles responsabilités peuvent leur être confiées si l’intelligence artificielle prend en charge les tâches élémentaires, laissant uniquement les missions complexes aux professionnels expérimentés ?

La troisième limite à considérer concerne le déploiement à grande échelle de l’intelligence artificielle au sein des entreprises à l’échelle mondiale. Cette expansion soulève des interrogations quant au volume de données générées, à leur stockage, et à la consommation d’énergie induite. Alors que le concept de « Green IT » prend de l’importance aujourd’hui, l’intégration à grande échelle de l’intelligence artificielle pose de nouvelles questions sur la durabilité environnementale de ces technologies.

L’intelligence artificielle, malgré ses défis, offre des opportunités significatives. Elle facilite une approche centrée sur le « produit ». Cependant, il apparaît essentiel de n’avoir recours à l’intelligence artificielle que lorsque cela est vraiment nécessaire, évitant ainsi une généralisation excessive de son utilisation, et de la réserver particulièrement pour des tâches d’expertise.

Lors de la mise en place d’une solution d’intelligence artificielle, il est crucial de vérifier les résultats à l’aide d’experts qui peuvent valider la qualité des performances, évitant ainsi les possibles « hallucinations » ou erreurs.

Ensuite, nous examinons la démocratisation de l’intelligence artificielle. Le Machine Learning, qui facilite la création de modèles d’apprentissage.

Le Deep Learning, une branche de l’intelligence artificielle, offre la possibilité de : – Personnaliser des produits, notamment dans le secteur bancaire, pour les vendre aux clients.

– Personnaliser des prêts bancaires, en prenant des décisions d’approbation ou de refus.

– Gérer la fraude documentaire, avec l’intelligence artificielle supervisant l’imagerie pour vérifier la conformité des documents fournis par les clients.

Il est essentiel de rester vigilant quant au respect du RGPD lors de l’utilisation de l’intelligence artificielle, en particulier dans le domaine bancaire, soumis à une réglementation rigoureuse. Les banques doivent être en mesure de justifier l’explicabilité des algorithmes qu’elles mettent en place.

Ensuite, nous abordons les notions d’IA éthique et d’IA de confiance. Tout ce processus est en cours d’instauration et de régulation grâce à l’IA Act.

Enfin, le sujet de l’IA générative est abordé. Ce type d’intelligence artificielle implique plusieurs étapes, parfois longues ou complexes, nécessitant une réflexion approfondie. Voici quelques points à considérer :

– Initiation: Utilisation de modèles d’apprentissage.

– Exploration des données : Analyse approfondie des données.

– Définition des cas d’usage : Identification des applications spécifiques de l’intelligence artificielle générative.

– Mise en place technique :Réflexion sur la mise en œuvre technique de l’IA générative.

– Opportunités :

– Mise en place d’un chatbot avec des contenus audio ou vidéo.

– Création de données génériques pour l’entraînement du modèle.

Cependant, plusieurs risques doivent être pris en compte :

– Hallucinations : Risque d’erreurs similaires à celles évoquées précédemment.

– Désinformation : Possibilité de diffusion d’informations fausses si les retours de l’IA sont considérés comme véridiques.

– Remplacement de l’humain par la machine : Risque de pertes d’emplois associées à l’automatisation.

– Consommation énergétique : Le fonctionnement de ces nouveaux systèmes, particulièrement énergivores en stockage de données et en énergie, pose des défis en termes de durabilité.

Pour conclure cette table ronde, Benoit Rigaut explique que chez Chanel, la data n’est pas traditionnellement au cœur de l’entreprise. Cependant, ils ont décidé d’introduire l’intelligence artificielle dans un premier temps pour optimiser les plannings des employés en boutique. De plus, l’IA offre la possibilité d’améliorer l’expérience client en magasin, enrichissant ainsi la relation avec la clientèle.

Chez Chanel, l’intelligence artificielle est envisagée avec prudence, et les cas d’utilisation restent à définir. Actuellement, un ChatGPT interne a été déployé, incitant les employés à l’expérimenter. De plus, un partenariat avec Microsoft a été établi pour tester l’intégration de Copilot, bien que cela reste encore au stade expérimental.

 

En conclusion, il est impératif de souligner la nécessité de la prudence vis-à-vis des données générées par les LLM. La validation et le marquage approprié de ces données comme étant générées sont essentiels. Si ces données sont réintégrées dans les modèles d’apprentissage sans discernement, cela peut entraîner une boucle sans fin, conduisant à un appauvrissement des modèles, voire à une situation où 100% des données deviennent des hallucinations. C’est un aspect à surveiller attentivement.



Voir toutes les NEWS