Zum Hauptinhalt springen

Wie werden die Zuverlässigkeit der Antworten von Assistant garantiert?

Verfasst von Laura Wiest
Heute aktualisiert

Wir verwenden generative KI an vielen Stellen im Produkt, da es sich um eine großartige Technologie zum Verstehen natürlicher Sprache handelt. Die Zuverlässigkeit der Antworten ist ein wesentlicher Faktor, weshalb wir eine Reihe von Maßnahmen ergriffen haben, um die höchstmögliche Zuverlässigkeit zu gewährleisten:

  • Doctrine hat einen Verhaltenskodex für generative KI verfasst, der eine Reihe von Verpflichtungen zu diesem Thema enthält und in die AGB integriert ist: https://trust.doctrine.com/. In diesem Kodex entwickeln wir unsere Vision zum Einsatz generativer KI: Wir glauben an ein Modell der geteilten Verantwortung, da Plattformen, die juristische KI-Dienstleistungen anbieten, sich nicht gegenüber ihren Kunden aus der Verantwortung ziehen können, mit der Begründung, dass diese ethischen Verpflichtungen unterliegen. Wir können nicht für die Richtigkeit aller Inhalte garantieren, die mit unseren generativen KI-Funktionen erstellt werden, da selbst auf der Grundlage unserer Quellen Fehler möglich sind (wie bei allen von Menschen erstellten Inhalten). Wir verpflichten uns jedoch, diesen Verhaltenskodex und alle seine Grundsätze einzuhalten. Wir bemühen uns auch, fehlerhafte Generierungen („Halluzinationen”) so weit wie möglich zu reduzieren, indem wir unseren Anbietern generativer KI systematisch den erforderlichen Kontext zur Verfügung stellen, wobei zu beachten ist, dass Halluzinationen entgegen den Behauptungen einiger Akteure der Branche nicht vollständig vermieden werden können.

  • Wir weisen die Nutzer immer darauf hin, wenn sie mit einem generierten Ergebnis konfrontiert werden, und fordern sie auf, den generierten Inhalt zu überprüfen. Dadurch wird das Risiko verringert, dass unzuverlässige Informationen ohne Überprüfung weiterverwendet werden.

  • Wir ermöglichen unseren Nutzern stets, die Quellen zu überprüfen, auf denen die generative KI ihre Antworten basiert, und haben viel in diese Erfahrung investiert: Wir haben einzigartige Innovationen wie die „Split View” entwickelt, mit der eine Quelle direkt angezeigt werden kann, ohne die Seite zu wechseln.

  • Vor allem haben wir ganzes Team von Produktjuristen eingestellt, dessen Aufgabe es ist, den Produkt- und Technikteams dabei zu helfen, die Antworten der generativen KI zu verstehen und unsere Systeme zu verbessern, um zuverlässigere Ergebnisse zu erzielen. Damit bringen wir juristisches Fachwissen in die Entwicklung unserer Systeme ein. So können wir Fach- und Technologiekompetenz miteinander verbinden, um die größtmögliche Zuverlässigkeit unserer Antworten zu gewährleisten.

  • Mit der Unterstützung von diesem Team erstellen wir regelmäßig Benchmarks unserer Lösungen, um die Leistung unserer Lösungen so weit wie möglich angesichts nicht deterministischer Systeme zu messen, insbesondere bei einer Änderung des LLM-Modells.

All diese Maßnahmen ermöglichen es uns, eine sehr hohe Zuverlässigkeit unserer Tools zu gewährleisten, ohne jedoch eine vollständige Fehlerfreiheit garantieren zu können, da Fehler sowohl künstlicher als auch menschlicher Natur sein können.

Hat dies deine Frage beantwortet?