III. Forschung: Wenn ChatGPT & Co. halluzinieren
Wenn KI-Modelle völlig falsche Ergebnisse angeben, dann spricht man vom „Halluzinieren“. Dagegen könnten Wissensgraphen helfen.
„Die Richtigkeit von Aussagen, die uns künstlich intelligente Sprachmodelle wie ChatGPT liefern, lässt sich mit Wissensgraphen exakt überprüfen“. Davon ist Informatikwissenschaftler Prof. Harald Sack vom Karlsruher Institut für Technologie (KIT) überzeugt. „Vereinfacht gesagt handelt es sich bei Wissensgraphen um sehr große Datenbank-Systeme im Internet, die zahlreiche häufig eingegebene Suchwörter integrieren und mit Hilfe künstlicher Intelligenz damit verbundene Inhalte aus vielen unterschiedlichen Quellen anzeigen“, sagt der Professor für Information Services Engineering am FIZ Karlsruhe - Leibniz-Institut für Informationsinfrastruktur. Zum Beispiel könnten so neben dem eigentlichen Suchergebnis weiterführende, relevante Informationen aus verschiedenen anderen Quellen dargestellt werden. Prof. Harald Sack sieht in solchen Wissensgraphen einen geeigneten Weg, um für die Wahrheit einer generierten Aussage entweder zuverlässige Belege zu finden, oder an denjenigen Angaben Zweifel zu begründen, bei denen offenbar Fakten mit Fiktion vertauscht wurden.
„Bei Deep Learning-Modellen wie Chat-GPT steht man praktisch vor einer ‚Black Box‘. Deshalb ist es wichtig, das Potenzial von Wissensgraphen für eine bessere Erklärbarkeit und Vertrauenswürdigkeit solcher Textgenerierungssysteme zu erkennen und zu nutzen“, betont Sack. Unter seiner Regie läuft derzeit auf der Lernplattform openHPI des Hasso-Plattner-Instituts ein Seminar. Zu dem sechswöchigen, kostenlosen Kurs „Knowledge Graphs – Foundations and Applications“ in englischer Sprache kann man sich noch anmelden.