Let your knowledge grow - Evaluate protected data with LLMs
(Video in englischer Sprache)
Die Welt wird immer reicher an Informationen – manchmal von guter und manchmal von schlechter Qualität. Große Sprachmodelle (LLMs) wie ChatGPT werden mit diesen Informationen trainiert, um unsere Fragen zu beantworten und uns zu unterstützen. Um ihre Antworten zu verbessern, können LLMs Methoden wie die Retrieval Augmented Generation (RAG) verwenden, um bessere Antworten zu generieren, indem externe Informationen an die Frage angehängt werden. Die wertvollsten und interessantesten Informationen sind jedoch oft nicht frei zugänglich. Wie können also große Sprachmodelle durch die Einbeziehung geschützter Informationen bessere Antworten liefern?
Wenn wir LLMs und Datenräume mit dem Konzept der Retrieval Augmented Generation kombinieren, können Fragen an einen Datenraum gesendet werden, wobei jeder Datenanbieter gefragt wird, wie wahrscheinlich es ist, dass sein Datensatz die Antwort verbessert. Die Datensätze werden dem Benutzer zusammen mit der Wahrscheinlichkeit angezeigt, dass die Daten ihm bei der Beantwortung seiner Frage helfen. Der Benutzer kann die Nutzungsbedingungen akzeptieren (z. B. durch den Kauf der Daten) und erhält dann Zugriff auf die Rohdaten. Das LLM auf der Verbraucherseite generiert dann aus den neuen Daten eine Antwort auf die ursprüngliche Frage.
Durch die Verknüpfung von Datenräumen mit LLMs über das Konzept von RAG können Geschäftsfälle realisiert werden, die in der Vergangenheit nicht durchführbar waren. LLM-basierte Datenräume für die Suche in geschützten Daten sind eine Entwicklung des Fraunhofer ISST in Zusammenarbeit mit Huawei unter Verwendung der Technologie Boot-X.