Wer bei Dual Use an ein neues Recycling-Programm zur Wiederverwertung von Einmalartikeln denkt, liegt knapp daneben. Denn beim Ausdruck „Dual Use“ handelt es sich um die Möglichkeit der doppelten Verwendbarkeit von Entwicklungen im guten wie im bösen Sinne. Das ist entgegen der Vermutung vieler Wissenschaftlerinnen und Wissenschaftler in der Forschung durchaus relevant und wird mit dem Einzug der Künstlichen Intelligenz in unser aller Leben immer bedeutsamer. Bei Dual Use geht es darum, dass Technologien und Güter nicht nur zu zivilen Zwecken zum Vorteil aller Menschen eingesetzt, sondern eben auch für militärische und politische Zwecke missbraucht werden können, um Menschen zu überwachen, ihre Freiheiten einzuschränken, sie zu unterdrücken oder gar, um sie zu töten.
Einführung
Während das BAFA (Bundesamt für Wirtschaft und Ausfuhrkontrolle) und der Zoll ihr Augenmerk in erster Linie auf Sicherheitsaspekte und mögliche Wirtschaftsschäden für die Bundesrepublik Deutschland richten und dabei unter anderem Güter aus den Bereichen der Physik, Elektronik, Telekommunikation, Informationstechnologie und Informatik kontrollieren, sind jedoch auch Güter aus den Bereichen Chemie, Biologie und Medizin nicht unproblematisch. So können zum Beispiel Zentrifugen, die im medizinischen, biologischen und pharmakologischen Bereichen Anwendung finden, genauso gut für die Anreicherung von Uran genutzt werden. So können auch diverse Veröffentlichungen zur Virenforschung als Blaupausen für biologische Kampfstoffe dienen. Dual Use betrifft eben nicht nur produzierte Güter, sondern auch geistige Güter, die dem Wissenstransfer zuzuordnen sind. Denn ohne die Publikationen zur Kernspaltung von Lise Meitner, Otto Hahn, Nils Bohr und einigen mehr wäre sowohl die friedliche Nutzung der Atomenergie, aber auch der Bau der Atombombe nicht möglich gewesen. Auch stehen Wirtschaftlichkeit und Dual Use in engem Verhältnis zueinander. So werden zum, Beispiel gerne Bedenken über Forschungsinhalte zugunsten der Einwerbung von Drittmittel leichtfertig über Bord geworfen und Geldgeber wie das Department of Defense (DoD) als „die Guten“ bezeichnet.
Zur näheren Erläuterung der Problematik hier noch weitere Beispiele aus zwei top aktuellen und brisanten Wissenschaftsbereichen:
Dual Use und die Biowissenschaften
Der Verband für Biologie, Biowissenschaften und Biomedizin Deutschland (VBIO) hat folgende sehr treffende Definition für Dual Use auf ihren Seiten veröffentlicht: „Besorgniserregende biosicherheitsrelevante Forschung (Dual Use Research of Concern, kurz DURC) umfasst Arbeiten, die das Potential haben, Wissen, Produkte oder Technologien hervorzubringen, die direkt von Dritten missbraucht werden können, um das Leben oder die Gesundheit von Menschen, die Umwelt oder andere Rechtsgüter zu schädigen.“
Der Ausbruch der Spanischen Grippe hat während und nach dem ersten Weltkrieg bis zu 50 Millionen Todesopfer gefordert. Laut VBIO wollten Forschende in den USA im Jahre 2005 diesen hoch virulenten Stamm rekonstruieren, um die hohe Pathogenität dieses Influenzavirus verstehen zu können und weil sie sich dadurch erhofften, bessere Medikamente für Vorbeugung und Therapie entwickeln zu können. Daher statteten sie einen relativ harmlosen Influenzavirus mit den kompletten kodierenden Sequenzen aller acht viralen Gensegmente des tödlichen Virusstammes von 1918 aus. Sie schufen damit einen Bauplan für die Konstruktion eines hoch gefährlichen Killer-Mikroorganismus. Dieser ist nun allen Menschen zugänglich, autokraten Systemen genauso wie singulären Terrorzellen.
Inzwischen stehen mit dem Pockenvirus (geschätzte 300 bis 500 Millionen Tode allein im 20. Jahrhundert bis zur Ausrottung) und dem Pest-Erreger Yersinia pestis (20 bis 50 Millionen Tode) weitere Gensequenzen von hoch gefährlichen Krankheitserregern öffentlich zur Verfügung.
2012 lösten zwei Arbeitsgruppen heftige Diskussionen aus, da sie Varianten des Vogelgrippevirus H5N1 hergestellt hatten, die im Unterschied zum Wildtyp auch zwischen Säugetieren auf dem Luftweg übertragen werden. Somit wurde aus einem relativ schlecht übertragbaren, ein hoch ansteckendes, tödliches Virus. Die Idee war, dass eine entsprechende Mutation auch in der Natur jederzeit auftauchen kann – und darauf wollte man vorbereitet sein. Forschungsergebnisse können auch in anderen Kontexten angewandt werden bzw. auf eine andere Art eine Gefahr darstellen. 2001 wurde laut VBIO beispielsweise in Australien ein „Killer“-Mauspockenvirus entwickelt, um einer Mausplage Herr zu werden. Damit wurde allerdings ein Bauplan für die Manipulation eines humanpathogenen Pockenvirus zur Erweiterung seines letalen Wirkspektrums erstellt. Hinter all diesen Beispielen steht eine durchaus gute Absicht, aber in den falschen Händen, stellen diese Ergebnisse eine Horrorvision für jede friedliebende Gesellschaft dar. Wem jetzt noch nicht die Knie schlottern, dem sei der nächste Absatz ans Herz gelegt.
Dual Use und die Künstliche Intelligenz
Das Weltwirtschaftsforum warnt vor der Künstlichen Intelligenz, kurz KI, als globalem Risiko. Dies gilt vor allem durch gezielte Desinformationen im Superwahljahr 2024, wo die größten demokratischen Systeme über ihre Führung für die nächsten Jahre entscheiden und damit auch die Weichen für ihr weltpolitisches Verhalten stellen. Laut Computerwoche sieht das WEF (World Economy Forum) überraschenderweise die Bedrohung von destabilisierenden Maßnahmen auf demokratische Systeme durch KI in ihrer Bedeutung noch vor extremen Wetterereignissen und Cyberattacken - und niemand widerspricht. Die Bedrohung durch KI ist real und so langsam dämmert dies auch den Expertinnen und Experten, denn weder die Ethik noch die Politik oder die Gesetzgebung kommen dem rasenden Tempo hinterher, indem sich KI in unser aller Leben verbreitet.
Laut Spiegel Netzwelt und Heise Online haben im letzten Jahr Hunderte von KI-Expertinnen und Experten folgendes Statement unterschrieben: „Es sollte global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und ein Nuklearkrieg.“ Unterzeichnet wurde das Statement von Größen wie Sam Altman, CEO von Open AI, Dennis Hassabis, Chef von Google DeepMind, sowie von den mit dem Turing Award ausgezeichneten KI-Forschern Geoffrey Hinton und Yoshua Bengio. Neben Taiwans Digitalministerin Audrey Tang und Microsofts Technikchef Kevin Scott gesellten sich noch zahlreiche KI-Fachleute aus der Forschung und Wirtschaft hinzu. Veröffentlicht wurde die Botschaft vom Center for AI Security in San Francisco.
Ist diese Warnung gerechtfertigt? Das National Geographic berichtete 2022 über eine Studie der Oxford University, in der die Möglichkeit adressiert wird, dass die Technologie zum Verhängnis der Menschheit werden kann, wenn die fortgeschrittene KI sich verselbstständigen würde und sich gegen ihre Erfinder wendet. Dass die KI einmal schlauer werden könnte als der Mensch ist seit der Auseinandersetzung zwischen Garri Kasparow und IBM’s Deep Blue im Jahre 1997 kein Geheimnis mehr. Zum ersten Mal schaffte es ein Computer den weltbesten Schachspieler nach Turnierregeln in 6 Schachpartien 3,5:2,5 zu besiegen.
Nach dem Sieg von Deep Blue wandte sich die Computer-Community dann einem weiteren Spiel zu, noch älter als Schach, noch einfacher in der Struktur, aber weitaus komplexer in den Zugmöglichkeiten…Go! Es ist vor allem in Südostasien weit verbreitet und galt in der Antike als eine der vier Künste der chinesischen Gelehrten. Erst im Jahre 2015 gelang es einem Computerprogram mit dem Namen AlphaGo von Google DeepMind den Europameister Fan Hui zu besiegen, 2016 folgte dann ein Sieg über Lee Sedol, 9. Dan und weltbester Spieler von 2007 bis 2011 (The Verge 2016). Nach Niederlagen gegen die immer stärker und besser spielenden Computerprogramme zog sich Lee Sedol 2019 vom aktiven Wettkampf zurück.
Während Deep Blue hauptsächlich „Brute Force“ Manöver nutzte, um Hunderte von Millionen Positionen auszuwerten, gelang dies AlphaGo mit der Unterstützung von neuronalen Netzen und Deep Learning.
Wenden wir uns nun aber wieder der Studie der Oxford University und der Gefahreneinschätzung von fortgeschrittener KI zu. Ein wissenschaftliches Team der Oxford University und der Australian National University in Canberra hat mit Hilfe von Modellen errechnet, wie wahrscheinlich es ist, dass sich eine fortgeschrittene KI gegen den Menschen richten würde. Die Ergebnisse wurden im AI Magazine veröffentlich und sind besorgniserregend, denn laut dem Hauptautor ist eine „existentielle Katastrophe nicht nur möglich, sondern auch wahrscheinlich.“
Um verstehen zu können, wie es zu so einer existentiellen Katastrophe kommen könnte, braucht man den Blick hinter die Kulissen. Einfache KI-Modelle treffen Entscheidungen durch überwachtes Lernen (Supervised Learning – SL), fortgeschrittene Modelle tun dies durch verstärktes Lernen (Reinforcement Learning – RL). Bei dieser Methode werden der KI keine Daten vorgegeben, sondern sie entwickelt in Simulationsszenarien eigenständig Strategien, um das beste Ergebnis zu erzielen. Das beste Ergebnis wird belohnt, wobei die Programmierenden entscheiden, wie diese Belohnung aussieht. Das Belohnungssystem dient nur als Motivationsschub. Das Problem besteht nun darin, dass die KI das Belohnungssystem durchschaut und es manipuliert, um mehr Belohnungen zu erhalten. Die Studie kommt zu dem Schluss, dass genau dieses Szenario eine reale Gefahr darstellt. Die Forschenden gehen davon aus, dass die KI schnell um die gleichen Ressourcen kämpfen würde wie der Mensch (Energie) und dem Menschen bei seinen Gegenmaßnahmen aber immer einen Schritt voraus sein würde. Es wäre ein Kampf gegen einen übermächtigen Gegner.
Die aktuellen Kriege sowohl zwischen Russland und der Ukraine als auch zwischen Israel und den vom Iran kontrollierten Terrormilizen Hamas im Süden, Hisbollah im Norden und Huthi am Roten Meer werden laut Deutschlandfunk vom Oktober 2023 bereits mit intensiver Unterstützung von KI geführt. Zurzeit wird KI wohl noch hauptsächlich bei der Verteidigung eingesetzt, jedoch ist der nächste Schritt hin zu autonomen Waffen schon vollzogen und auch bei der Informationsbeschaffung und -auswertung ist die KI schon voll einsatzbereit.
Dual Use und die Verantwortung der Forschenden
Der gemeinsame Ausschuss zum Umgang mit sicherheitsrelevanter Forschung der Deutschen Forschungsgemeinschaft (DFG) und der Leopoldina (Nationale Akademie der Wissenschaften) hat 2022 eine aktualisierte Empfehlung zur Wissenschaftsfreiheit und Wissenschaftsverantwortung für drittmittelfinanzierte Forschungseinrichtungen in Deutschland herausgegeben. Hierin betonen sie, dass Forschung die wesentliche Grundlage für den Fortschritt bildet und deswegen frei sowie uneingeschränkt sein muss, was durch das Grundgesetz auch gewährleistet wird. Jedoch kommt diese Freiheit der Forschung auch mit einem Preis und hohen Risiken daher, denn alle nützlichen Ergebnisse bergen die Gefahr, missbraucht zu werden.
Darum haben laut DFG und Leopoldina alle Forschenden aufgrund ihres Wissens, ihrer Erfahrung und ihrer Freiheit eine besondere ethische Verantwortung, die über die rechtliche Verpflichtung hinausgeht. Sie erwarten, dass Forschungsinstitutionen selbst die Rahmenbedingungen für ethisch verantwortbare Forschung schaffen und die Instrumente der Selbstregulierung der Wissenschaft einführen.
Da die Forschenden jedoch häufig selbst so sehr in ihre Forschung vertieft sind und sich beim besten Willen nicht vorstellen können, dass ihre Forschung einmal missbraucht werden könnte, zumal es häufig ja auch noch einen beratenden Ethikrat gibt und sie ja schließlich „die Guten“ sind, hat die DFG zusammen mit der Leopoldina eine Empfehlung sowohl für einzelne Forschende sowie für Forschungsinstitutionen entwickelt. Im Teil A, der sich an einzelne Forschende richtet, warnen sie vor der Gefahr des Missbrauchs, der den Forschenden bewusst sein muss. Denn in kritischen Fällen müssen sie aufgrund ihres Wissens und ihrer Erfahrung eine persönliche Entscheidung über das bei ihrer Forschung Verantwortbare treffen. Dabei sind die Chancen der Forschung und deren Risiken für Menschenwürde, Leben und andere wichtige Güter gegeneinander abzuwägen.
Die Empfehlungen konkretisieren diese Abwägung im Hinblick auf die erforderliche Risikoanalyse, die Maßnahmen der Risikominderung, die Prüfung der Veröffentlichung von Forschungsergebnissen sowie den Verzicht auf Forschung als letztes Mittel. Primäres Ziel ist dabei die verantwortliche Durchführung und Kommunikation der Forschung. Im Einzelfall kann eine verantwortungsbewusste Entscheidung Forschender sogar bedeuten, dass ein hochrisikoreiches Projekt nur nach einem Forschungsmoratorium oder gar nicht durchgeführt wird.
Doch um diese Empfehlungen umsetzen zu können, bedarf es einer Bewusstseinsänderung der Forschenden an den Hochschulen, und die kann nur über vermehrte Aufklärung und Schulung kommen. Schon mit Beginn des Studiums müsste es verpflichtende Kurse für alle Studierende geben, sich mit der Problematik der dualen Nutzung von Forschungsergebnissen auseinanderzusetzen. Und genau dies sieht auch Teil B der gemeinsamen Empfehlung von DFG und Leopoldina an Forschungsinstitutionen vor. Sie fordern darin die Schärfung des Problembewusstseins sowie notwendige Kenntnisse über die rechtlichen Grenzen der Forschung hinaus sowie die Einführung von Ethikregeln für den Umgang mit sicherheitsrelevanter Forschung.
Fazit
„Der Weg zur Hölle ist gepflastert mit guten Absichten“.
Die vielen guten Absichten bei der Forschung bis hin zur Innovation reichen nicht mehr aus. Die Forschenden tragen Verantwortung und müssen sich Fragen gefallen lassen wie „Was, wenn diese Ergebnisse in die falschen Hände geraten würden? Wie gefährlich ist diese Forschung? Dürfen derartige Ergebnisse überhaupt veröffentlicht werden? Müssen sie es vielleicht sogar, damit die Allgemeinheit im Fall der Fälle mehr Chancen hat, adäquat zu reagieren?“. Forschende sind dazu verpflichtet, diese Fragen zuerst an sich selbst zu stellen und im Vorfeld zu überlegen, welche Auswirkungen ihre Schöpfung haben kann - und bitte nicht antworten mit „Hinterher ist man immer schlauer“. Das Gleiche gilt für Totschlagargumente wie „Wenn ich es nicht tue, tun es andere“, „Ist doch sowieso alles Dual Use“ und „Meine Forschung ist nicht gefährlich, denn wir sind die Guten“. Alle Forschenden müssen sich kontinuierlich hinterfragen und die erzielten Ergebnisse auf möglichen Missbrauch überprüfen. Es muss grundsätzlich abgewogen werden, ob der potenzielle Nutzen größer ist als ein möglicher Schaden. Und dazu muss man auch mal um die Ecke denken und schauen, ob der Sensor, den man gerade entwickelt hat, nicht viel besser zum Bomben bauen geeignet ist oder ob der Bauplan für ein mögliches Medikament, das vielleicht einmal in 20 Jahren auf den Markt kommen könnte, nicht schon morgen zur Massenvernichtung von Menschen eingesetzt werden könnte.
Es geht bei Dual Use nicht darum, Forschung zu verbieten, sondern darum, ein Bewusstsein für die Eigenverantwortung bei Forschenden zu schaffen!
Die Entscheidung, etwas vielleicht nicht bis zum Ende zu verfolgen, muss von den Forschenden selbst kommen. Gerade wenn das eigene Forschungsgebiet ins Zentrum internationaler Kritik gerät, dann sind die Forschenden dieses Forschungsfelds gefragt, sich nicht weg zu ducken, sondern die Ängste und Warnungen ernst zu nehmen und Mechanismen gegen einen möglichen Missbrauch zu entwickeln. Finanzielle Vorteile, Ehrgeiz, Machtstreben, Erfolgs- und Leistungsdruck vertreten bei diesen Überlegungen übrigens die dunkle Seite der Macht!