Human-Centred Artificial Intelligence Research Group
Die Forschungsgruppe “Menschzentrierte Künstliche Intelligenz” (Human-Centered Artificial Intelligence) ist Teil der gemeinsamen Professur für “Forschungsinfrastrukturen für Digital Humanities” unter der Leitung von Prof. Dr.-Ing. Ernesto William De Luca, der zugleich die Abteilung “Menschenzentrierte Technologien für Bildungsmedien” am Leibniz-Institut für Bildungsmedien | Georg-Eckert-Institut (GEI) leitet. Die gemeinsame Professur umfasst zudem den Aufbau und die Nutzung eines hybriden Usability-Labors, das von beiden Institutionen genutzt wird.
Die Forschungsgruppe arbeitet in verschiedenen Forschungsbereichen, die sich mit Menschzentrierter Künstlicher Intelligenz (HCAI) und menschzentriertem Design (HCD) befassen, mit besonderem Fokus auf Verantwortliche KI, Ethische KI, Maschinelles Lernen, Sprachverarbeitung, Mensch-Computer-Interaktion, Benutzeradaptive Systeme und Usability.
Human-Centered Artificial Intelligence
Menschzentrierte Künstliche Intelligenz (HCAI) ist eine innovative Disziplin, die darauf abzielt, KI-Systeme zu schaffen, die menschliche Fähigkeiten erweitern und ergänzen (anstatt sie zu ersetzen). HCAI verfolgt das Ziel, die Kontrolle des Menschen zu bewahren und sicherzustellen, dass Künstliche Intelligenz (KI) unseren Bedürfnissen entspricht, transparent arbeitet, faire und gerechte Ergebnisse liefert und die Privatsphäre respektiert.
Die Hauptforschungsgebiete sind:
-
Ethische KI und Vertrauenswürdigkeit: 2019 veröffentlichte die von der Europäischen Kommission eingerichtete High Level Expert Group für KI (AI HLEG) das Dokument “Ethik-Leitlinien für vertrauenswürdige KI”. Ziel der Leitlinien ist die Förderung einer vertrauenswürdigen KI. Vertrauenswürdige KI umfasst drei Komponenten, die über den gesamten Lebenszyklus des Systems erfüllt sein sollten: (1) Sie sollte gesetzeskonform sein und alle geltenden Gesetze und Vorschriften einhalten, (2) sie sollte ethisch sein und die Einhaltung ethischer Prinzipien und Werte gewährleisten und (3) robust, sowohl aus technischer als auch aus sozialer Sicht, da KI-Systeme unbeabsichtigt Schaden verursachen können, selbst wenn gute Absichten zugrunde liegen. Insbesondere sollte jedes KI-System so entwickelt und eingesetzt werden, dass folgende ethische Prinzipien gewahrt werden: (I) Respekt für die menschliche Autonomie, (II) Schadensvermeidung, (III) Fairness und (IV) Erklärbarkeit.
-
Verantwortungsvolle KI: KI betrifft uns alle und hat Auswirkungen auf uns, nicht nur individuell, sondern auch kollektiv. Deshalb müssen wir über die Analyse der Vorteile und Auswirkungen für einzelne Nutzer hinausgehen und KI-Systeme als Teil einer zunehmend komplexen sozio-technischen Realität betrachten. Verantwortungsvolle KI bedeutet daher, verantwortungsvoll mit der Macht umzugehen, die KI mit sich bringt. Wenn wir Artefakte entwickeln, die mit einer gewissen Autonomie handeln, “sollten wir uns sicher sein, dass der Zweck, der in die Maschine gelegt wird, der Zweck ist, den wir wirklich wollen.” Die größte Herausforderung besteht darin, zu bestimmen, was Verantwortung bedeutet, wer verantwortlich ist und wer was entscheidet. Da KI-Systeme Artefakte sind, Werkzeuge, die für einen bestimmten Zweck entwickelt wurden, kann die Verantwortung niemals bei dem KI-System selbst liegen, da es als Artefakt nicht als verantwortlicher Akteur betrachtet werden kann. Auch wenn das Verhalten eines Systems von Entwicklern oder Nutzern nicht immer vorhergesehen werden kann, sind Verantwortlichkeitsketten erforderlich, die das Verhalten des Systems mit den verantwortlichen Akteuren verknüpfen. Zwar haben einige, insbesondere das Europäische Parlament, für eine Art Rechtspersönlichkeit für KI-Systeme plädiert, jedoch erfordert verantwortungsvolle KI Partizipation. Das bedeutet das Engagement aller Beteiligten und die aktive Einbindung der gesamten Gesellschaft. Jeder sollte angemessene Informationen darüber erhalten können, was KI ist und was sie für ihn bedeuten kann, und auch Zugang zu Bildung über KI und verwandte Technologien haben. Ebenso müssen sich KI-Forscher und Entwickler der sozialen und individuellen Auswirkungen ihrer Arbeit bewusst sein und verstehen, wie verschiedene Menschen in unterschiedlichen Kulturen mit KI-Technologien umgehen und sie nutzen.
-
Natural Language Processing (NLP) ist ein Teilgebiet der KI, das sich damit befasst, Computern die Fähigkeit zu verleihen, Texte und gesprochene Worte in ähnlicher Weise wie Menschen zu verstehen. NLP kombiniert Computerlinguistik mit statistischen, maschinellen Lernverfahren und Deep-Learning-Modellen. Gemeinsam versetzen diese Technologien Computer in die Lage, menschliche Sprache in Form von Text- oder Sprachdaten zu verarbeiten und deren volle Bedeutung zu erfassen, einschließlich der Absicht und der Stimmung des Sprechers oder Schreibers.
-
User Profiling zielt darauf ab, aus den generierten Daten die Interessen, Persönlichkeitsmerkmale oder Verhaltensweisen einer Person abzuleiten, um eine effiziente Nutzerdarstellung, d. h. ein Nutzermodell, zu erstellen, das von adaptiven und personalisierten Systemen genutzt wird. Moderne Systeme konzentrieren sich auf die implizite Erstellung von Nutzerdaten auf der Grundlage der Handlungen und Interaktionen von Einzelpersonen; dieser Ansatz wird auch als Verhaltensprofilierung bezeichnet.
-
Algorithmic Fairness ist das Forschungsgebiet an der Schnittstelle von maschinellem Lernen und Ethik. Konkret geht es um die Erforschung der Ursachen für Verzerrungen in Daten und Algorithmen, um die Definition und Anwendung von Messungen der Fairness und um die Entwicklung von Datenerhebungs- und Modellierungsmethoden zur Schaffung fairer Algorithmen und fairer KI-Systeme, indem Regierungen/Unternehmen beraten werden, wie maschinelles Lernen reguliert werden kann. Es ist auch wichtig zu verstehen, dass die Ansätze zur Fairness nicht nur quantitativ sind. Denn die Gründe für Unfairness gehen über Daten und Algorithmen hinaus. Bei der Forschung geht es darum, die Ursachen für Unfairness zu verstehen und zu bekämpfen.
- Explainability, auch als "Interpretability" bezeichnet, ist das Konzept, dass ein Modell des maschinellen Lernens und seine Ergebnisse so erklärt werden können, dass sie für einen Menschen auf einem akzeptablen Niveau unverständlich sind. Anders als bei herkömmlicher Software ist es unter Umständen nicht möglich, einem Endbenutzer das Ergebnis einer maschinellen Lernmethode oder eines Deep-Learning-Modells zu erklären. Dieser Mangel an Transparenz kann zu erheblichen Verlusten führen und das Misstrauen der User und die Weigerung, KI-Anwendungen zu nutzen, zur Folge haben. Die Erklärbarkeit ("Explainability") kann Entwicklern dabei helfen, sicherzustellen, dass das System wie erwartet funktioniert.
Human-Centred Design
Human-Centred Design (HCD) ist ein Ansatz zur Entwicklung interaktiver Systeme, der sich auf die Nutzung des interaktiven Systems konzentriert und Kenntnisse und Methoden der Usability und User Experience (UX) anwendet. Es basiert auf einem expliziten Verständnis von Users, Zielen, Aufgaben, Ressourcen und Umgebungen. Die Users werden während des gesamten Entwurfs einbezogen. Das Design wird durch die Anforderungen der Users bestimmt und durch die Bewertung der Usability verfeinert. Ein HCD Prozess ist iterativ, d. h. er wird so lange verfeinert, bis die User-Anforderungen erfüllt sind. HCD befasst sich mit der gesamten UX.
Die wichtigsten Forschungsthemen sind:
-
Benutzbarkeit (Usability) ist das Maß, in dem ein interaktives System in einem bestimmten Nutzungskontext effektiv, effizient und zufriedenstellend verwendet werden kann. Ein interaktives System ist effektiv, wenn es die Nutzer bei der Erreichung ihrer Ziele unterstützt und sie herausfinden können, wie dies zu tun ist. Es ist effizient, wenn es die Nutzer dabei unterstützt, ihre Aufgaben schnell und ohne viel Nachdenken auszuführen. Es ist zufriedenstellend, wenn es die Erwartungen der Nutzer erfüllt und einfach zu bedienen ist.
-
Die Benutzererfahrung (User Experience) berücksichtigt die erwartete Nutzung, die Zufriedenheit der Nutzer während der Nutzung und die Erfüllung ihrer Erwartungen nach der Nutzung (während die Benutzbarkeit nur die Zufriedenheit während der Nutzung berücksichtigt).
Human-Centered Natural Language Processing
Die menschzentrierte Sprachverarbeitung (Human-Centered Natural Language Processing, HC-NLP) ist ein Kurs, der ein fortgeschrittenes Verständnis darüber vermittelt, wie KI-Systeme menschliche Sprache verarbeiten und generieren können. Durch den Fokus auf das Zusammenspiel von maschinellem Lernen, Linguistik und menschlicher Kommunikation untersucht dieser Kurs, wie NLP-Technologien entwickelt werden, um mit Menschen zusammenzuarbeiten und deren Fähigkeiten zu erweitern und zu ergänzen, anstatt sie zu ersetzen.
Dieser Kurs richtet sich an Studierende mit Grundkenntnissen in maschinellem Lernen und Python-Programmierung und zielt darauf ab, die Teilnehmer mit dem Wissen und den Werkzeugen auszustatten, um KI-Systeme zu entwickeln, die Sprache auf nützliche, ethische und an menschliche Bedürfnisse angepasste Weise verstehen und generieren.
Wichtige Forschungs- und Anwendungsbereiche umfassen:
-
Sprachverarbeitung (Natural Language Processing, NLP):
-
-
Die Sprachverarbeitung (NLP) ist ein Bereich der KI, der sich darauf konzentriert, Maschinen beizubringen, menschliche Sprache zu verstehen, zu interpretieren und zu generieren. Durch den Einsatz von Techniken des Deep Learnings, linguistischen Modellen und rechnerischen Frameworks ermöglicht NLP Maschinen die Analyse von Text oder Sprache und das Erfassen von Nuancen wie Sentiment, Absicht und Kontext.
-
-
-
Ethische KI in der Sprachverarbeitung:
-
-
Der Kurs legt besonderen Wert auf die ethischen Dimensionen der KI in Sprachtechnologien. Vertrauenswürdige KI im NLP stellt sicher, dass Systeme gesetzeskonform, ethisch und robust sind.
-
-
-
Generative KI & Große Sprachmodelle
-
-
Die generative KI spielt eine entscheidende Rolle im modernen NLP. Dieser Abschnitt des Kurses behandelt, wie große Sprachmodelle (z. B. GPT) trainiert werden, um kohärente und kontextrelevante Texte zu generieren. (Themen: Vortraining & Feinabstimmung, Prompting und RLHF).
-
-
-
Mensch-KI-Kollaboration:
-
-
Der Kurs verfolgt einen menschzentrierten Ansatz und konzentriert sich darauf, wie NLP-Systeme in realen Anwendungen mit Menschen zusammenarbeiten können.
-
-
-
Erklärbarkeit & Transparenz in der Sprachverarbeitung:
-
-
Das Verständnis von Erklärbarkeit in NLP-Modellen ist entscheidend für die Schaffung von vertrauenswürdigen KI-Systemen.
-
-