Wie KI die humanitäre Hilfe verändert: Risiken und Chancen

Im Kommentar-Format „Off the Record“ bieten wir unseren Mitarbeiter*innen und Volunteers den Raum ihre Erfahrungen aus Einsätzen und der Arbeit von und mit CADUS, Gedanken zu humanitärer Hilfe, Politik und Gesellschaft zu teilen. Dabei müssen die Äußerungen nicht zwingend die Meinung der Organisation CADUS wiedergeben.

Ich habe genug Nächte unter Moskitonetzen verbracht und lange, oft im Kreis drehende UN-Koordinationssitzungen durchgestanden, um eines zu wissen: Wenn wir Menschen in Krisen schneller erreichen wollen, mit weniger Verschwendung und ohne den gesamten Sektor zu überlasten, können wir nicht weitermachen wie bisher. Wir müssen an Innovationen arbeiten. An alten Strukturen festzuhalten, wird nicht ausreichen.

Darum denke ich vermehrt über KI nach. Nicht die dramatische Science-Fiction-Version, in der Roboter die Kontrolle übernehmen. Sondern die raue, wenig glamouröse, manchmal fehlerhafte KI, die tatsächlich helfen könnte, Nahrung in ein von Überschwemmungen betroffenes Dorf zu bringen, bevor die Straße unpassierbar wird, oder einen Krankheitsausbruch zu erkennen, bevor die Klinik überfüllt ist.

Auf der AI for Good-Konferenz in diesem Jahr war die Botschaft klar: Der humanitäre Bedarf explodiert, die Finanzierung schrumpft und wir brauchen jedes Werkzeug, das uns zur Verfügung steht. KI ist bereits da, nur nicht immer dort, wo man sie erwarten würde.

Wo KI bereits hilft

Vergesst den Hype. Einige der besten humanitären KI-Anwendungen sind überhaupt nicht spektakulär. Hier ein paar bodenständige Beispiele:

Unsichtbares sichtbar machen: Microsofts Projekt „Precision Populations, in Zusammenarbeit mit Planet Labs nutzt KI und hochfrequente Satellitenbilder, um zu kartieren, wo Menschen tatsächlich leben, in Regionen, in denen seit über einem Jahrzehnt keine Volkszählung stattgefunden hat. Wenn ein Zyklon einschlägt, bedeutet das, dass wir nicht raten müssen, wohin die Hilfe geschickt werden soll.

Blindheit verhindern: Eine einfache Handykamera plus ein KI-Modell kann einer Pflegekraft in einer ländlichen Klinik helfen, Retinopathie bei Frühgeborenen zu erkennen, die häufigste Ursache vermeidbarer Erblindung im Kindesalter.

Humanitäre Entscheidungen beschleunigen: Mercy Corps’ generatives KI-Tool „Methods Matcher“, hilft Helfer*innen, schnell evidenzbasierte Antworten aus einem Archiv vergangener Projekte und Forschungen zu erhalten. Vom Einschätzen von Bargeldhilfen während der Inflation bis hin zum Durchdenken von Ernährungsstrategien unterstützt das Tool klügere und schnellere Entscheidungen vor Ort.

Das sind keine hypothetischen Zukunftsszenarien. Sie sind heute im Einsatz, retten Geld und Leben. Ich habe in Ausbrüchen selbst mit KI-gestützten Diagnosetools gearbeitet. Nicht perfekt, aber manchmal liegt genau darin der Unterschied zwischen „wir haben es rechtzeitig erkannt“ und „wir sind schon zu spät“.

Aber nicht alles ist Sonnenschein und Algorithmus

Humanitäre Kontexte sind chaotisch. Menschen sind vertrieben, verletzlich, traumatisiert, haben ihre Häuser und Familien verloren und werden oft gezielt angegriffen. Wenn man in diesem Umfeld unbedacht ein KI-Tool einsetzt, kann man großen Schaden anrichten. Hier sind einige drängende Risiken:

Datenschutz: In einem Kriegsgebiet kann ein Datenleck wortwörtlich Menschen das Leben kosten. Die Humanitarian Data and Trust Initiative der Schweiz ist ein Schritt in Richtung Schutz sensibler Daten in Konfliktzonen.

Sprachliche Ungleichbehandlung: Die meiste KI wird auf Englisch trainiert, viele Sprachen und Dialekte bleiben unbeachtet. Wer also Tigrinya oder Rohingya spricht, hat Pech.

Digitale Spaltung: Die ITU schätzt, dass 2,6 Milliarden Menschen keinen Internetzugang haben. Ohne Internet gibt es keinen KI-Nutzen, egal wie gut das Modell ist.

“Fallschirm-KI”: Tools, die in schicken Büros weit entfernt von den Einsatzorten entwickelt, ohne lokale Beteiligung eingeführt und nach sechs Monaten wieder eingestellt werden. Wenn Gemeinschaften nicht von Anfang an in die Entwicklung einbezogen werden, scheitert KI nicht nur, sie kann nach hinten losgehen. Wir müssen von Fallschirm- zu Partnerschafts-KI kommen, bei der betroffene Gemeinschaften, lokale NGOs und nationale Institutionen Mitgestalter*innen sind, nicht bloß „Datenpunkte“.

Partnerschaften und Nachhaltigkeit

KI wird die humanitäre Hilfe nicht verändern, wenn jedes Projekt ein isoliertes Pilotprojekt bleibt. Wir haben zu viele Proof-of-Concepts und zu wenige langfristige Systeme. Damit KI bleibt, müssen wir Infrastruktur, Datensysteme, Schulungen und Wartung finanzieren, nicht nur das Experiment. Der UN-Fonds für komplexe Risikoanalysen zeigt, wie gemeinsame Ressourcen von Agenturen dafür eingesetzt werden können. Sexy? Eher nicht. Nützlich? Absolut.

Wenn Partnerschaften mit dem Privatsektor funktionieren

Richtig gemacht, können Partnerschaften zwischen Privatwirtschaft und humanitären Organisationen großartig sein. Infosys etwa hat mit der NGO Street Child in der Ukraine zusammengearbeitet, um seine E-Learning-Plattform für kriegsvertriebene Schüler*innen und Lehrer*innen anzupassen. Sie passten die Inhalte ins Ukrainische an, fügten Cyber-Sicherheitsmodule hinzu und bauten digitale Lernzentren nahe der Frontlinie. Das ist nicht nur Hilfe, sondern Resilienz.

Fünf Regeln, nach denen ich bei KI arbeite

    1. Am Bedarf ansetzen, nicht an der Technik: Wenn es kein echtes Problem löst, ist es nur digitaler Ballast.
    2. Ethik zuerst: Datenschutz, Einwilligung und Transparenz sind nicht optional.
    3. In Menschen investieren: Besonders in lokales Talent. Ein Modell, das nur mit Ingenieur*innen aus dem Silicon Valley läuft, wird im Feld scheitern.
    4. Offen teilen: Was funktioniert, was nicht, und ja, auch die Misserfolge.
    5. Groß denken, klein anfangen: Erst in einem Camp beweisen, bevor man es in einem ganzen Land ausrollt.

Warum das wichtig ist

KI wird die humanitäre Hilfe nicht „retten“, aber sie kann uns helfen, knappe Ressourcen und das Vertrauen der Menschen, denen wir dienen, klüger einzusetzen. Wenn wir es richtig machen, könnte KI schnellere, fairere und effektivere Hilfe bedeuten. Wenn wir es falsch machen, riskieren wir, ein Werkzeug für Menschlichkeit in ein weiteres Mittel der Ausgrenzung zu verwandeln. Und in dieser Arbeit ist es keine Option, Menschen zurückzulassen.

Dr. Hisham Abdulaziz ist Arzt und humanitärer Mitarbeiter, derzeit Country Manager für CADUS. Er hat einen Master in International Health und ist Gastdozent an der Charité – Universitätsmedizin Berlin. In den letzten zehn Jahren hat er für Médecins Sans Frontières, die Weltgesundheitsorganisation und Ada Health gearbeitet, wo er an der Entwicklung und Erprobung medizinischer KI-Modelle beteiligt war. Seine Arbeit verbindet Gesundheit, humanitäre Hilfe und künstliche Intelligenz mit dem Ziel, Technologie für bessere Versorgung in Krisenkontexten einzusetzen.

by Hisham Abdulaziz

Cholera-Einsatz in Angola – Teil 2

Juni 18th, 2025|

In Reaktion auf ein Hilfeersuchen der angolanischen Regierung wegen eines anhaltenden Choleraausbruchs, entsendete CADUS ein Team zur technischen Unterstützung, im Rahmen eines gemeinsamen EMT-Einsatzes mit dem Arbeiter-Samariter-Bund, Malteser International und dem Robert Koch-Institut.

Cholera-Einsatz in Angola – Teil 1

Juni 5th, 2025|

In Reaktion auf ein Hilfeersuchen der angolanischen Regierung wegen eines anhaltenden Choleraausbruchs, entsendete CADUS ein Team zur technischen Unterstützung, im Rahmen eines gemeinsamen EMT-Einsatzes mit dem Arbeiter-Samariter-Bund, Malteser International und dem Robert Koch-Institut.

Newsletter Anmeldung

Bleibe informiert über unsere Einsätze, Veranstaltungen und Themen aus der Humanitären Nothilfe – mit unserem Newsletter!

Ich stimme der Verarbeitung meiner persönlichen Daten (eMail) zu
Ich stimme dem Empfang des Newsletters zu

Ich möchte mich vom Newsletter abmelden.

Deine Spende macht es möglich, dass wir unsere Ressourcen und Fähigkeiten dort einsetzen, wo sie am dringendsten gebraucht werden.

Nach oben