
Wie KI die humanitäre Hilfe verändert: Risiken und Chancen
Im Kommentar-Format „Off the Record“ bieten wir unseren Mitarbeiter*innen und Volunteers den Raum ihre Erfahrungen aus Einsätzen und der Arbeit von und mit CADUS, Gedanken zu humanitärer Hilfe, Politik und Gesellschaft zu teilen. Dabei müssen die Äußerungen nicht zwingend die Meinung der Organisation CADUS wiedergeben.
Ich habe genug Nächte unter Moskitonetzen verbracht und lange, oft im Kreis drehende UN-Koordinationssitzungen durchgestanden, um eines zu wissen: Wenn wir Menschen in Krisen schneller erreichen wollen, mit weniger Verschwendung und ohne den gesamten Sektor zu überlasten, können wir nicht weitermachen wie bisher. Wir müssen an Innovationen arbeiten. An alten Strukturen festzuhalten, wird nicht ausreichen.
Darum denke ich vermehrt über KI nach. Nicht die dramatische Science-Fiction-Version, in der Roboter die Kontrolle übernehmen. Sondern die raue, wenig glamouröse, manchmal fehlerhafte KI, die tatsächlich helfen könnte, Nahrung in ein von Überschwemmungen betroffenes Dorf zu bringen, bevor die Straße unpassierbar wird, oder einen Krankheitsausbruch zu erkennen, bevor die Klinik überfüllt ist.
Auf der AI for Good-Konferenz in diesem Jahr war die Botschaft klar: Der humanitäre Bedarf explodiert, die Finanzierung schrumpft und wir brauchen jedes Werkzeug, das uns zur Verfügung steht. KI ist bereits da, nur nicht immer dort, wo man sie erwarten würde.
Wo KI bereits hilft
Vergesst den Hype. Einige der besten humanitären KI-Anwendungen sind überhaupt nicht spektakulär. Hier ein paar bodenständige Beispiele:
Unsichtbares sichtbar machen: Microsofts Projekt „Precision Populations, in Zusammenarbeit mit Planet Labs nutzt KI und hochfrequente Satellitenbilder, um zu kartieren, wo Menschen tatsächlich leben, in Regionen, in denen seit über einem Jahrzehnt keine Volkszählung stattgefunden hat. Wenn ein Zyklon einschlägt, bedeutet das, dass wir nicht raten müssen, wohin die Hilfe geschickt werden soll.
Blindheit verhindern: Eine einfache Handykamera plus ein KI-Modell kann einer Pflegekraft in einer ländlichen Klinik helfen, Retinopathie bei Frühgeborenen zu erkennen, die häufigste Ursache vermeidbarer Erblindung im Kindesalter.
Humanitäre Entscheidungen beschleunigen: Mercy Corps’ generatives KI-Tool „Methods Matcher“, hilft Helfer*innen, schnell evidenzbasierte Antworten aus einem Archiv vergangener Projekte und Forschungen zu erhalten. Vom Einschätzen von Bargeldhilfen während der Inflation bis hin zum Durchdenken von Ernährungsstrategien unterstützt das Tool klügere und schnellere Entscheidungen vor Ort.
Das sind keine hypothetischen Zukunftsszenarien. Sie sind heute im Einsatz, retten Geld und Leben. Ich habe in Ausbrüchen selbst mit KI-gestützten Diagnosetools gearbeitet. Nicht perfekt, aber manchmal liegt genau darin der Unterschied zwischen „wir haben es rechtzeitig erkannt“ und „wir sind schon zu spät“.
Aber nicht alles ist Sonnenschein und Algorithmus
Humanitäre Kontexte sind chaotisch. Menschen sind vertrieben, verletzlich, traumatisiert, haben ihre Häuser und Familien verloren und werden oft gezielt angegriffen. Wenn man in diesem Umfeld unbedacht ein KI-Tool einsetzt, kann man großen Schaden anrichten. Hier sind einige drängende Risiken:
Datenschutz: In einem Kriegsgebiet kann ein Datenleck wortwörtlich Menschen das Leben kosten. Die Humanitarian Data and Trust Initiative der Schweiz ist ein Schritt in Richtung Schutz sensibler Daten in Konfliktzonen.
Sprachliche Ungleichbehandlung: Die meiste KI wird auf Englisch trainiert, viele Sprachen und Dialekte bleiben unbeachtet. Wer also Tigrinya oder Rohingya spricht, hat Pech.
Digitale Spaltung: Die ITU schätzt, dass 2,6 Milliarden Menschen keinen Internetzugang haben. Ohne Internet gibt es keinen KI-Nutzen, egal wie gut das Modell ist.
“Fallschirm-KI”: Tools, die in schicken Büros weit entfernt von den Einsatzorten entwickelt, ohne lokale Beteiligung eingeführt und nach sechs Monaten wieder eingestellt werden. Wenn Gemeinschaften nicht von Anfang an in die Entwicklung einbezogen werden, scheitert KI nicht nur, sie kann nach hinten losgehen. Wir müssen von Fallschirm- zu Partnerschafts-KI kommen, bei der betroffene Gemeinschaften, lokale NGOs und nationale Institutionen Mitgestalter*innen sind, nicht bloß „Datenpunkte“.
Partnerschaften und Nachhaltigkeit
KI wird die humanitäre Hilfe nicht verändern, wenn jedes Projekt ein isoliertes Pilotprojekt bleibt. Wir haben zu viele Proof-of-Concepts und zu wenige langfristige Systeme. Damit KI bleibt, müssen wir Infrastruktur, Datensysteme, Schulungen und Wartung finanzieren, nicht nur das Experiment. Der UN-Fonds für komplexe Risikoanalysen zeigt, wie gemeinsame Ressourcen von Agenturen dafür eingesetzt werden können. Sexy? Eher nicht. Nützlich? Absolut.
Wenn Partnerschaften mit dem Privatsektor funktionieren
Richtig gemacht, können Partnerschaften zwischen Privatwirtschaft und humanitären Organisationen großartig sein. Infosys etwa hat mit der NGO Street Child in der Ukraine zusammengearbeitet, um seine E-Learning-Plattform für kriegsvertriebene Schüler*innen und Lehrer*innen anzupassen. Sie passten die Inhalte ins Ukrainische an, fügten Cyber-Sicherheitsmodule hinzu und bauten digitale Lernzentren nahe der Frontlinie. Das ist nicht nur Hilfe, sondern Resilienz.
Fünf Regeln, nach denen ich bei KI arbeite
- Am Bedarf ansetzen, nicht an der Technik: Wenn es kein echtes Problem löst, ist es nur digitaler Ballast.
- Ethik zuerst: Datenschutz, Einwilligung und Transparenz sind nicht optional.
- In Menschen investieren: Besonders in lokales Talent. Ein Modell, das nur mit Ingenieur*innen aus dem Silicon Valley läuft, wird im Feld scheitern.
- Offen teilen: Was funktioniert, was nicht, und ja, auch die Misserfolge.
- Groß denken, klein anfangen: Erst in einem Camp beweisen, bevor man es in einem ganzen Land ausrollt.
Warum das wichtig ist
KI wird die humanitäre Hilfe nicht „retten“, aber sie kann uns helfen, knappe Ressourcen und das Vertrauen der Menschen, denen wir dienen, klüger einzusetzen. Wenn wir es richtig machen, könnte KI schnellere, fairere und effektivere Hilfe bedeuten. Wenn wir es falsch machen, riskieren wir, ein Werkzeug für Menschlichkeit in ein weiteres Mittel der Ausgrenzung zu verwandeln. Und in dieser Arbeit ist es keine Option, Menschen zurückzulassen.
Dr. Hisham Abdulaziz ist Arzt und humanitärer Mitarbeiter, derzeit Country Manager für CADUS. Er hat einen Master in International Health und ist Gastdozent an der Charité – Universitätsmedizin Berlin. In den letzten zehn Jahren hat er für Médecins Sans Frontières, die Weltgesundheitsorganisation und Ada Health gearbeitet, wo er an der Entwicklung und Erprobung medizinischer KI-Modelle beteiligt war. Seine Arbeit verbindet Gesundheit, humanitäre Hilfe und künstliche Intelligenz mit dem Ziel, Technologie für bessere Versorgung in Krisenkontexten einzusetzen.
by Hisham Abdulaziz
Erdbeben-Nothilfe in Syrien: Durchhalten!
Der Kurdische Rote Halbmond leistet lebensrettende Hilfe – und wird darin immer wieder behindert.
Als Teamlead in der Ukraine: Einblick in den Einsatz
"Ich arbeite seit 2006 immer wieder in Kriegs- und Krisengebieten in der humanitären Hilfe. Aber der Einsatz hier hat mich geprägt wie wenige andere." Thorsten, seit Juni 2022 für uns als Teamlead in der Ukraine, schildert seine persönlichen Eindrücke aus den Einsätzen vor Ort.
1 Jahr Ukraine-Krieg – 1 Jahr humanitärer Einsatz
Am 24.02.23 jährt sich der russische Angriff auf die Ukraine und markiert damit zugleich den Beginn humanitärer Katastrophen wie in Melitopol, Kriegsverbrechen wie in Butscha und dem allgemeinen Leid der ukrainischen Bevölkerung. Seither unterstützen wir die Menschen des Landes beim Wiederaufbau, mit …
Newsletter Anmeldung
Bleibe informiert über unsere Einsätze, Veranstaltungen und Themen aus der Humanitären Nothilfe – mit unserem Newsletter!
Ich möchte mich vom Newsletter abmelden.
