L’intelligence artificielle générative, ou GenAI, a pénétré de nombreux secteurs d’activité et connaît une expansion rapide depuis la présentation de l’agent conversationnel ChatGPT par la start-up californienne OpenAI, en novembre 2022. Pour simplifier, GenAI est une catégorie d’IA (intelligence artificielle) capable de générer du nouveau contenu sous forme de texte, d’images ou de vidéos, à partir d’un prompt (ou requête), en se basant sur une grande quantité de données existantes. Elle offre des perspectives intéressantes, y compris dans le monde de l’officine.
Du conseil ultrapersonnalisé
Le chatbot est un peu le produit phare lorsqu’il est question d’IA générative. Dans le monde de la pharmacie, les professionnels s’accordent à dire qu’il pourrait apporter de la valeur, notamment dans le cadre de la relation avec le patient – sous certaines conditions bien sûr, nous y reviendrons…
En théorie, un pharmacien pourrait déléguer à cette IA certaines tâches répétitives et analytiques, pour se concentrer davantage sur ses missions à forte valeur ajoutée. Un LLM (Large Language Model) ou un modèle plus petit (LM) qui traite et génère du langage naturel, en s’appuyant sur les données médicales des patients (traitements, antécédents, allergies), pourrait fournir des recommandations de traitements adaptés, des conseils personnalisés, des schémas thérapeutiques dans le cadre de maladies chroniques, des comptes rendus d’entretiens pharmaceutiques, déceler des interactions, des risques d’iatrogénie, etc. Cerise sur le gâteau, les LLM pourraient retranscrire ces informations médicales complexes dans un langage compréhensible pour le patient.
Toujours dans le cadre du conseil, les IA génératives seront un jour peut être utilisées pour créer rapidement des supports pédagogiques et des fiches d’information adaptés à différents profils de patients. Cela peut consister en des brochures explicatives sur des pathologies chroniques, des modes d'emploi simplifiés pour l’usage de dispositifs médicaux ou encore des conseils hygiéno-diététiques.
À ce jour, les outils dopés à l’IA générative déployés en officine sont encore rares. WeBotit, entreprise spécialisée dans la création et le déploiement de chatbots, callbots et mailbots dans différents secteurs d’activité, va sous peu déployer ses services auprès d’acteurs de la pharmacie. « Dans une officine, l'intégration de WeBotit s’effectue via plusieurs canaux, comme des QR codes à scanner placés dans les rayons pour prodiguer des conseils personnalisés, ou des bornes avec des tablettes mises à disposition via un assistant numérique », détaille Louis-Clément Schiltz, fondateur de Webotit.ai.
Et de donner un exemple : « Imaginons que vous êtes au rayon capillaire d'une pharmacie et que vous cherchez un après-shampooing pour un certain type de cheveux. Face à une vingtaine de produits, vous êtes indécis. Il vous suffit alors de scanner le QR code Webotit et le système sait où vous êtes et ce qui est en stock. À partir de là, il vous propose des recommandations basées sur votre recherche et vous pose quelques questions sur votre type de cheveux et les effets souhaités. » Ensuite, plusieurs recommandations sont envoyées à l’utilisateur. « S’il a une question spécifique sur les références recommandées, les informations des produits et ses interrogations sont transmises à un LLM pour produire une réponse. » Webotit peut se connecter aux différents grands modèles du marché, comme ChatGPT ou Mistral, et à de plus petits modèles open source.
Optimisation des stocks et gestion des commandes
L’IA générative ne produit pas que du texte. Les callbots de Webotit peuvent, en théorie, assurer une permanence téléphonique, répondre à des questions courantes, vérifier la disponibilité d’un produit en stock, transférer l'appel à un pharmacien et même planifier une consultation. Techniquement, le flux audio de la conversation est converti en texte, qui est envoyé à un LLM. Sa réponse est ensuite générée en audio par des solutions de synthèse vocale comme celles d’Eleven Labs. Webotit a déjà développé une démo pour prouver la fonctionnalité de son système.
Autre débouché envisageable, la gestion des stocks et des commandes. Dans ce cadre, l’IA est déjà intégrée dans certains systèmes prédictifs pour estimer, par exemple, les besoins futurs en fonction de divers critères, qu’ils soient saisonniers, épidémiologiques ou démographiques. L’IA générative pourrait apporter une nouvelle brique d’intelligence en produisant des rapports d’analyse à même d’aider à la prise de décision en générant des recommandations de commande en période de grippe ou de rhume. Elle pourrait aussi faciliter la formation continue des pharmaciens en participant à la production de programmes de formation.
Certes, il y a là beaucoup de conditionnel, et pour cause. « On peut envisager, avec prudence, qu’une IA générative pourra un jour assister le pharmacien. Cependant, nous sommes encore loin de cette réalité », fait remarquer Olivier Clatz, directeur du programme Ségur numérique, qui a dirigé pendant deux ans le Grand Défi « IA en santé » du Gouvernement.
Quand l’IA hallucine
L’IA générative a déferlé avec son lot de débouchés potentiels, mais aussi de problématiques. Emmanuel Bacry, directeur scientifique du Health Data Hub, une structure qui a pour mission principale de faciliter l'accès aux données de santé pour la recherche d'intérêt public, explique : « Il est crucial de rester vigilants, car le LLM peut, par exemple, fournir des réponses totalement erronées. Une formation rigoureuse est nécessaire pour que les professionnels comprennent que ces outils peuvent se tromper et que l'expertise humaine demeure essentielle pour discerner le vrai du faux. »
L’IA générative pose, en effet, la question de la confiance accordée aux résultats qu’elle produit. Les données sont au cœur du fonctionnement de ces technologies. Et c’est leur qualité et leur exhaustivité qui déterminent en grande partie la qualité des réponses. Or, les IA génératives sont sujettes à des « biais » et des « hallucinations ». Pour les premiers, il s’agit de résultats produits par une IA influencée par des préjugés (raciaux, sexuels, par exemple.) présents dans les données d'entraînement ou dans la façon dont le modèle a été construit. Les secondes se réfèrent à des situations où l’IA génère des informations incorrectes ou trompeuses à cause d’erreurs liées à plusieurs facteurs comme « des données d'entraînement insuffisantes (voire biaisées ou erronées), des hypothèses erronées formulées par le modèle ou des biais dans les données utilisées pour entraîner le modèle », énumère Google sur une page dédiée.
Google pointe aussi le « manque d’ancrage » qui peut mener à ces hallucinations. Cette notion correspond aux difficultés que peut éprouver une IA à comprendre des connaissances du monde réel, des faits ou des propriétés physiques, par exemple. « Ce manque d'ancrage peut amener le modèle à générer des sorties qui, bien qu'apparaissant plausibles, sont en fait incorrectes, non pertinentes ou incompréhensibles. » La firme souligne également que ces hallucinations « peuvent poser problème aux systèmes d'IA utilisés pour prendre des décisions importantes, par exemple effectuer des diagnostics médicaux ou réaliser des transactions financières. »
Des premiers tests peu concluants
La preuve par l’exemple : un récent article du « Quotidien du Pharmacien » évoquait un éditorial de Tic Pharma rédigé par Wassinia Zirar et Sylvie Lapostolle. Ils y présentaient les résultats d'une étude sur l'efficacité de ChatGPT dans le cadre de la pharmacie hospitalière. L'étude a évalué ChatGPT sur deux types de questions. Pour des interrogations simples et factuelles concernant les résumés des caractéristiques des produits (RCP), l'IA a obtenu 7 bonnes réponses sur 10. En revanche, pour des questions plus complexes nécessitant une expertise et un discernement humain, comme l'utilisation hors AMM ou le choix de traitements, le taux de bonnes réponses est tombé à 55 % (4 correctes, 2 partielles, 4 incorrectes). Les auteurs soulignaient, en outre, que ChatGPT ne citait pas ses sources.
Globalement, tous les utilisateurs, et à plus forte raison les professionnels de santé, ne peuvent donc pas se fier aveuglément au résultat produit par une machine. Toute production émanant d’une IA devra donc être ajustée et validée par le pharmacien en fonction de son expérience, de ses connaissances et de son interaction avec le patient.
Apprendre à s’approprier l’IA générative
L’utilisateur doit apprendre à bien formuler son prompt, ce qui peut prendre un certain temps dans la mesure où l’on peut supposer que, dans le cas d’une pharmacie, celui-ci doit être adapté à chaque patient. Il s’agit aussi – et c’est sans doute le plus important – de choisir un modèle façonné pour son activité en entraînant son IA uniquement à partir de sources pertinentes et spécifiques, comme une base de données de médicaments ou des dossiers patients. Contrairement à des LLM de type ChatGPT, entraînés sur des données publiques et accessibles en ligne. À ce titre, le Dossier pharmaceutique ou encore Mon Espace Santé peuvent s’avérer des sources d’apprentissage intéressantes pour ces IA sur mesure, puisque les données de santé – si convenablement renseignées – y sont centralisées. Selon Olivier Clatz, des outils matures devraient émerger d’ici deux ans, voire dans cinq à dix ans s’ils exigent beaucoup d’essais cliniques et, bien sûr, un passage au crible des instances réglementaires.
Quid du RGPD ?
L’utilisation de l’IA générative en officine, et plus globalement dans le domaine médical, soulève des questions d’ordre éthique et réglementaire. Celles-ci concernent notamment le traitement et la protection des données personnelles de santé, ainsi que l’utilisation de ces systèmes d’IA, notamment dans le respect du cadre strict imposé par le Règlement général sur la protection des données (RGPD) sur leur stockage, leur transmission et leur utilisation. Les outils technologiques utilisés, tels les serveurs sur lesquels les modèles sont hébergés, devront en outre assurer la protection de ces données en adoptant des protocoles de sécurité exigeants, comme la certification HDS. « Avec les solutions open source, vous pouvez héberger l'IA sur votre propre serveur, ce qui vous permet de contrôler totalement les données que vous y intégrez et les résultats qu'elle génère, tout en étant assuré que lesdites données ne seront pas utilisées pour réentraîner d’autres modèles », décrypte Louis-Clément Schiltz. De quoi renforcer la transparence et la sécurité autour de l'usage de l'IA.
V. M.
Dispensation du médicament
Tramadol et codéine sur ordonnance sécurisée : mesure reportée !
Formation continue
Transmission automatique des actions de DPC : les démarches à faire avant le 30 novembre
Relocalisation industrielle
Gel des prix sur le paracétamol pendant 2 ans : pourquoi, pour qui ?
Salon des maires
Trois axes d’action pour lutter contre les violences à l’officine