Aktuelles im Detail

Recap: Wissenschaft in der digitalen Zukunft - Verantwortungsvolle KI oder Desinformation im großen Stil?

© ECDF/PR/berlin-eventfotograf.de

Systeme der künstlichen Intelligenz sind zu einem allgegenwärtigen Bestandteil unseres täglichen Lebens geworden. Insbesondere die jüngsten Fortschritte haben die Diskussion über die Vorteile und Risiken von KI-Systemen neu entfacht - von ChatGPT bis hin zu gefälschten Bildern. Das ECDF und Elsevier haben diese jüngsten Entwicklungen zum Anlass genommen, eine offene Diskussionsreihe darüber zu veranstalten, wie sich die Digitalisierung auf den Wissenschaftsbetrieb auswirkt: ECDF and Elsevier Conversations on Science in the Digital Future. Nach der ersten Diskussion zum Datenschutz im digitalen Zeitalter (//recap) fand am 20. April 2023 das zweite Panel zum Thema "Responsible AI or Disinformation at Scale?" mit Prof. Dr. Felix Biessmann, Professor für Data Science am ECDF und der Berliner Hochschule für Technik Berlin, Harry Muncey, Director of Data Science and Responsible AI bei Elsevier, und Tabea Rößner, Bundestagsabgeordnete für Bündnis 90/Die Grünen und Vorsitzende des Digitalausschusses statt. Die Veranstaltung wurde von der Journalistin Katharina Heckendorf moderiert. 

Drei Artikel bilden die Grundlage für diese Folge: Der niederländische Algorithmus-Skandal, KI für die Arzneimittelforschung und das Outsourcing, das für die Gründung von ChatGPT genutzt wurde: In den Niederlanden setzten die Steuerbehörden automatisierte Systeme ein, die Tausende von Familien fälschlicherweise des Betrugs beschuldigten, wobei sie sie aufgrund ihrer Nationalität diskriminierten; In der pharmazeutischen Industrie wird KI zur Verbesserung der Arzneimittelentdeckung eingesetzt, indem sie große Datenmengen analysiert und erfolgreiche Wirkstoffe vorhersagt; OpenAI, das Unternehmen, das hinter dem jüngsten KI-System ChatGPT steht, profitierte vom Outsourcing und bezahlte kenianischen Arbeiter*innen nur 2 Dollar pro Stunde, um die Algorithmen von gewalttätigem Content zu befreien. Arbeiter*innen mussten Daten sichten, von denen einige grafische Gewalt und Missbrauch enthielten. Ist verantwortungsvolle KI also überhaupt möglich? Wie groß ist ihr Schadenspotenzial? In welchem Umfang sollten wir diese Systeme regulieren und überwachen? Was können wir aus dem niederländischen Algorithmus-Skandal lernen? Wie können wir Datensätze von guter Qualität sicherstellen? Inwieweit sollten wir der KI vertrauen? 

"Es hat den Anschein, als sei das Problem das Ergebnis mehrerer Versäumnisse in Bezug auf verantwortungsvolle KI: mangelnde Aufsicht, fehlende Rechenschaftspflicht, Transparenz und Erklärungen, wobei die Menschen, die von den Entscheidungen der Algorithmen betroffen sind, nicht die Möglichkeit haben, die Ergebnisse anzufechten. Es ist ein Paradebeispiel dafür, wie wir durch den Einsatz von KI bestehende Voreingenommenheiten in unseren Systemen reproduzieren können", so Harry Muncey im Hinblick auf verantwortungsvolle KI und das niederländische Beispiel. Muncey weist auf die menschlichen Vorurteile hin, die wahrscheinlich in die Daten eingebettet wurden, die zum Training der von den niederländischen Steuerbehörden verwendeten Algorithmen verwendet wurden. "Wir brauchen gute, offene Daten, um sicherzustellen, dass die verwendeten Datensätze angemessen sind. Einige Risiken können jedoch nicht minimiert werden, auch wenn die Daten gut sind" kommentiert Tabea Rößner. Sie verweist auf das KI-Gesetz und den risikobasierten Ansatz, an dem die Europäische Union derzeit arbeitet, um Menschenrechte und persönliche Daten in einer Welt der Algorithmen zu schützen. 

Felix Biessmann stimmt zu, dass die Datenqualität ein wichtiges Thema ist: "Wir gehen davon aus, dass die Daten repräsentativ genug sind, um ein Modell zu trainieren, das Vorhersagen über jede Art von Daten machen kann. In der Regel ist das aber nicht der Fall: Algorithmen können Verzerrungen verstärken und Gruppen noch weiter ausgrenzen. Viele dieser Probleme haben nichts mit KI zu tun, sondern mit Daten. Auch hier zeigt das Beispiel ChatGPT die Bedeutung von Daten: Das OpenAI-Programm wird weitgehend im Internet trainiert, wo jeder Inhalte einstellen kann, die dann von der KI ausgewertet werden. Daher bedarf es geeigneter Vorschriften für das Training mit hochwertigen Daten." Was die menschliche Seite der KI betrifft, so betont Felix Biessmann, ist "beides falsch: KI-Systemen nicht genug zu vertrauen und ihnen blind zu folgen." Harry Muncey stimmt zu und sieht es als "problematisch an, wenn die Erwartungen an die Fähigkeiten eines Systems nicht mit der Realität übereinstimmen". 

Wenn eine KI pharmazeutische Produkte herstellt, die noch nie jemand gesehen hat, wie sicher ist es dann, solche Medikamente einzunehmen? Welche Rolle wird menschliche Kontrolle spielen? "Was ist drin? Wie wurde es entwickelt werden? Was sagen Ärzt*innen? Wir brauchen hier menschliche Entscheidungen", betont Tabea Rößner, die die Möglichkeiten und Chancen der KI in der Medizin anerkennt, aber vorsichtig abwägt, "ob wir wirklich alles wissen wollen, was uns die KI sagen kann". Felix Biessmann weist auf die Bedeutung von Datenqualität und repräsentativen Datensätzen hin: "Der Mimik-Datensatz ist zum Beispiel einer der wichtigsten Datensätze in der KI-Gesundheitsforschung. Dennoch wird er für weiße Menschen getestet und entwickelt. Wir müssen mehr an der Vielfalt und Heterogenität unserer Daten arbeiten!" Es gibt auch das Problem des Datenschutzes, da private Informationen geschützt werden müssen - insbesondere wenn es sich um Patientendaten handelt. Biessmann ist der Meinung, dass "es immer ein Kompromiss zwischen Privatsphäre und Nutzen ist. Sind es wirklich gute Daten?“. Tabea Rößner argumentiert, dass "wir die Menschen nicht zwingen können, ihre Daten herauszugeben. Besonders bei seltenen Krankheiten könnte man den Patienten identifizieren. Es ist ein Balanceakt, gute Daten zu haben, die Vorteile zu nutzen und die Menschen zu schützen". Dazu gehört auch die menschliche Aufsicht, die nach Ansicht von Harry Muncey immer notwendig sein wird, "vor allem im Gesundheitswesen, dem Bereich mit dem höchsten Risiko für die Anwendung von KI, aber auch einem der Bereiche, in dem wir die größten Gewinne sehen werden, wenn es um KI-Systeme geht. Wir werden nicht umhin kommen, ein grundlegendes Maß an menschlicher Aufsicht zu fordern". Felix Biessmann stimmt dem zu, indem er erklärt, dass die menschliche Kontrolle beibehalten werden sollte, aber effizienter umgesetzt werden sollte, indem der Einsatz von schnell-fortschreitender Technologie erleichtert wird, was uns auch Zeit sparen lässt.

Bezüglich des Datensatzes hinter ChatGPT: Brauchen wir immer noch Menschen, um die Daten zu kennzeichnen, um die gewalttätigen Vorurteile oder Hassreden, die sie enthalten könnten, anzugehen? Könnte das Outsourcing vermieden werden? "Outsourcing ist ein generelles Problem! Selbst wenn die Arbeitnehmer*innen mehr verdienen, würden sie immer noch traumatische Inhalte sehen. Es ist unsere Verantwortung, diese Menschen zu schützen", sagt Tabea Rößner und bezieht sich dabei auf die kenianischen Arbeiter, die hinter den OpenAI-Datensätzen stehen. Für Muncey ist das kein KI-spezifisches Problem: "Wir sind dafür verantwortlich, die Lieferketten der Produkte und Technologien, die wir verwenden, zu überprüfen, genauso wie wir es bei Dingen tun würden, die keine KI sind." Die Einführung eines Lieferkettengesetzes für Digitale Anwedungen, ähnlich dem deutschen Lieferkettengesetz, wäre eine Möglichkeit. Laut Felix Biessmann wäre es schwierig umzusetzen aber hilfreich, die Daten zu sehen, auf denen das Modell trainiert wurde. 

Während die EU an einem KI-Gesetz arbeitet, betont Rößner, dass es nicht einfach ist, angemessene Regelungen zu definieren, aber dass es viele laufende Diskussionen gibt. Muncey denkt über die Herausforderung nach, KI mit Vorschriften anzugehen: "Verantwortungsvolle KI für bestimmte Algorithmen ist eine sehr kontextspezifische Herausforderung: Die Risiken, die eine KI für die Entdeckung von Medikamenten oder die Behandlung von Algorithmen birgt, unterscheiden sich von denen der Algorithmen, die empfehlen, was man als nächstes auf Netflix sehen sollte. Die Daten enthalten Verzerrungen, und es ist ein gewisses Maß an menschlicher Aufsicht und Transparenz erforderlich. Je nach Kontext ist ein unterschiedliches Maß an Sicherheitsvorkehrungen notwendig". 

Darüber hinaus diskutierten unsere Gäste darüber, inwieweit die Macht und das Monopol einiger weniger großer Unternehmen in der KI-Welt gebrochen werden kann. Als Forscher wünscht sich Felix Biessmann mehr offene Wissenschaft (Open Science) und offene Datensätze, die sich weniger auf Unternehmen und mehr auf die Wissenschaft stützen. Harry Muncey ist der Meinung "wir müssen Anreize für die Zusammenarbeit zwischen Wissenschaft und Industrie schaffen, um Offenheit zu schaffen und den Informationsaustausch zu fördern", und unterstreicht die Notwendigkeit, dass im Dialog über KI mehr unterschiedliche Stimmen zu Wort kommen.

 

Was bedeutet das nun für die Wissenschaft in der digitalen Zukunft? Moderatorin Katharina Heckendorf bittet die drei Diskussionsteilnehmer*innen, einen Blick in die Zukunft zu werfen: "Um verantwortungsvolle KI zu entwickeln, brauchen wir..."


Tabea Rößner: "... öffentliche Gelder, eine offene Gesellschaft, öffentlichen Code, Transparenz, eine gute Qualität der Daten, Behörden, die sie kontrollieren, und wir brauchen die Aufsicht über die damit verbundenen Risiken"

Harry Muncey: "... um kollaborativ und transparent zusammenzuarbeiten. [...] müssen wir so viele unterschiedliche Stimmen wie möglich einbeziehen, damit wir sicherstellen können, dass die Systeme für alle funktionieren und nicht nur für einige wenige" 

Felix Biessmann: "... transdisziplinäre Bemühungen um automatisierte Datenqualität"