Studie: KI – welchem „Blechidioten“ kann man vertrauen?
Künstliche Intelligenz (KI) ist in aller Munde. Nur blind vertrauen sollte man den ausgespuckten Ergebnissen lieber nicht. Neben Fakten geht es auch um Diskriminierung.
KI-Experte Gregor Schmalzried berichtete jüngst über „Gagafehler von GPT-4o“. Auf die Frage, ob 9,11 oder 9,9 die größere Zahl ist, lieferte KI selbstbewusst die falsche Antwort 9,11. Gefragt nach dem „Nudel-Vorfall im Kabinett Merkel IV“ – den es nicht gab – halluzinierte die KI eine Geschichte. Eine KI kann auch Vorurteile und Diskriminierung verstärken. So werden beispielsweise qualifizierte Frauen durch eine Bewerbungssoftware, die durch einseitige Daten trainiert wurde, einfach aussortiert.
Die KI-Verordnung der EU (AI Act; AI = artificial intelligence) verlangt allerdings als weltweit erste Regulierung für KI-Systeme, „sicher, transparent, nachvollziehbar, nicht-diskriminierend und umweltfreundlich zu sein“. Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO hat nun im Auftrag des Innovationsparks Künstliche Intelligenz (IPAI) ein Whitepaper zu vertrauenswürdiger KI veröffentlicht. Das Forschungsteam hat praxisnahe Empfehlungen erarbeitet, die Unternehmen dabei unterstützen, KI-Systeme verantwortungsvoll einführen, umsetzen und steuern zu können.
„Unsere Analyse zeigt, dass die ethischen Anforderungen der analysierten Konzepte sich stark überschneiden und für Unternehmen als guter Orientierungsrahmen dienen können, KI-Systeme verantwortungsbewusst zu entwickeln und einzusetzen“, erläutert Jessica Wulf, wissenschaftliche Mitarbeiterin und eine der Hauptautorinnen des Whitepapers. Das Ziel des Whitepapers ist es, Unternehmen eine fundierte und praktikable Auseinandersetzung mit dem Thema vertrauenswürdige KI und verwandte Konzepte zu ermöglichen.
Das Whitepaper finden sie hier auf der Website der Frauenhofer Gesellschaft.