Passer au contenu principal

Comment garantissez-vous la fiabilité des réponses des Chatbots ?

Marie Agard avatar
Écrit par Marie Agard
Mis à jour il y a plus de 2 semaines

Nous utilisons l’IA générative à de nombreux endroits dans le produit, car il s’agit d’une formidable technologie d’appréhension du langage naturel. La fiabilité des réponses est un enjeu essentiel, ce pourquoi nous avons pris un certain nombre de mesures pour assurer la plus haute fiabilité possible :

  • Doctrine a rédigé son code de conduite de l’IA générative, qui contient un certain nombre d’engagements à ce sujet et est intégré aux CGV : https://www.doctrine.fr/ia-generative/code-conduite-ia. Nous développons dans ce code notre vision sur le recours à l’IA générative : nous croyons en un modèle de responsabilité partagée, car les plateformes fournissant des services d’IA juridiques ne peuvent se déresponsabiliser sur leurs clients au motif que ces derniers sont soumis à des obligations déontologiques. Nous ne pouvons garantir la véracité de l’intégralité des contenus produits par le biais de nos fonctionnalités d’IA générative, car même basées sur nos sources, les erreurs sont possibles (comme pour tout contenu produit par un être humain). Nous nous engageons cependant à respecter ce code de conduite et tous ses principes. Nous nous efforçons également de réduire au maximum les générations erronées (“hallucinations”) en fournissant systématiquement le contexte nécessaire à nos prestataires d’IA générative, étant précisé que les hallucinations ne peuvent être réduites à zéro, contrairement à ce que certains acteurs du secteur affirment.

  • Nous avertissons toujours les utilisateurs lorsqu’ils sont face à un résultat généré, afin de les inviter à vérifier le contenu généré, limitant ainsi les risques qu’une information non fiable soit réutilisée sans vérification.

  • Nous permettons toujours à nos utilisateurs de vérifier les sources sur lesquelles se base l’IA générative pour répondre et avons investi énormément sur cette expérience : nous avons développé des innovations uniques comme la « split view » qui permet de visualiser directement une source sans changer de page.

  • Surtout, nous avons recruté une juriste produit, dont le métier consiste à aider les équipes produit et technique à comprendre les réponses de l’IA générative et améliorer nos systèmes pour produire des résultats plus fiables, apportant ainsi une expertise juridique métier à la conception de nos systèmes. Cela nous permet de mêler expertise métier et technologique, afin d’apporter la plus grande fiabilité possible à nos réponses.

  • Grâce au soutien de notre juriste produit, nous créons régulièrement des benchmarks de nos solutions pour mesurer, autant que possible face à des systèmes non déterministes, les performances de nos solutions, notamment en cas de changement de modèle de LLM.

L’ensemble de ces mesures nous permet d’assurer une très haute fiabilité de nos outils, sans pouvoir autant garantir une absence d’erreurs, l’erreur étant tout aussi artificielle qu’humaine.

Avez-vous trouvé la réponse à votre question ?