Künstliche Intelligenz ist längst kein Zukunftsthema mehr. Große Sprachmodelle wie ChatGPT, Claude oder Gemini sind in unserem Arbeitsalltag angekommen, auch im gemeinnützigen Sektor. Sie helfen beim Formulieren von E-Mails, beim Schreiben von Social-Media-Posts oder beim Strukturieren von Texten. Und natürlich drängt sich eine Frage auf: Wenn KI uns an so vielen Stellen entlastet, warum dann nicht auch bei einer Aufgabe, die in vielen Organisationen eher als Pflicht denn als Kür gilt: dem Schreiben von Fördermittelanträgen?
Gleichzeitig erleben wir einen regelrechten Boom an Tools und Angeboten, die genau das versprechen: „Förderanträge mit einem Klick“. Du gibst ein paar Stichpunkte ein, drückst auf Start und wenige Sekunden später liegt ein scheinbar fertiger Antrag vor dir. Strukturiert, formal korrekt und sprachlich glattgezogen. Auf den ersten Blick klingt das nach einer enormen Entlastung, gerade, wenn die Antragstellung sonst viel Zeit, Nerven und Konzentration kostet.
Doch genau hier beginnt das Problem. Denn ein Fördermittelantrag ist kein beliebiger Text, den man automatisiert generieren kann. Ein Antrag ist immer auch ein Instrument, zur Projektplanung und um Vertrauen aufzubauen: zwischen deiner Organisation und dem Fördermittelgeber. Er macht sichtbar, wie gut ihr eure Zielgruppe versteht, wie sorgfältig ihr euer Projekt geplant habt, wie viel Herzblut ihr in ein Projekt steckt und ob ihr die nötigen Kompetenzen mitbringt, um das Vorhaben tatsächlich umzusetzen.
Der Fördermarkt ist beständig in Bewegung. Bleiben Sie informiert...
In unserem regelmäßigen Newsletter erhalten Sie aktuelle Fördertipps, Hinweise auf neue Blogartikel, Veranstaltungen und Angebote von Förderlotse.
In diesem Blogartikel schauen wir deshalb genauer hin: Welche Rolle kann KI beim Schreiben von Fördermittelanträgen sinnvollerweise übernehmen und wo liegen klare Grenzen? Welche rechtlichen und ethischen Rahmenbedingungen sollten wir kennen? Und vor allem: Wie lässt sich KI so einsetzen, dass sie euch wirklich Arbeit abnimmt, ohne die Qualität eurer Anträge oder das Vertrauen zu gefährden?
Rechtliche und formale Rahmenbedingungen: Darf ich KI überhaupt einsetzen?
Der Einsatz von Künstlicher Intelligenz beim Schreiben von Fördermittelanträgen wirft schnell eine zentrale Frage auf: Ist das überhaupt erlaubt? Zwischen Urheberrecht, Datenschutz und dem seit Kurzem geltenden EU AI Act entsteht leicht der Eindruck, man könne hier viel falsch machen. Tatsächlich ist die Lage jedoch klarer, als viele vermuten, vorausgesetzt, man kennt die wichtigsten Grundlagen.
Die Datenschutz-Grundverordnung (DSGVO) und das Urheberrecht sind bereits bekannte Rahmenbedingungen, mit denen die meisten Organisationen vertraut sind. In diesem Artikel konzentrieren wir uns daher auf die Neuerungen durch den EU AI Act. Ein Abschnitt darin regelt, ob KI-generierte Inhalte grundsätzlich gekennzeichnet werden müssen, wenn wir KI-Tools, meist große Sprachmodelle, verwenden, um Texte zu erstellen oder zu überarbeiten.
„Wer ein KI-System einsetzt, das Text generiert oder manipuliert, der zu dem Zweck veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, muss offenlegen, dass der Text künstlich generiert oder manipuliert wurde.“ (EU AI Act Art. 50 Absatz 4)
Was bedeutet das für Fördermittelanträge?
Nach aktueller Einschätzung betrifft uns diese Regelung nicht direkt. Förderanträge sind in aller Regel keine öffentlichen Texte, sondern vertrauliche Kommunikation zwischen Antragstellenden und Förderinstitutionen. Sie erscheinen nicht auf Webseiten, in Pressemitteilungen oder Broschüren und fallen daher nicht in den Anwendungsbereich dieser Kennzeichnungspflicht.
Hinzu kommt ein zweiter Punkt: Die Pflicht zur Offenlegung entfällt immer dann, wenn KI-generierte Inhalte einer menschlichen Prüfung und redaktionellen Kontrolle unterzogen wurden. Genau das trifft auf Förderanträge zu. Eine zeichnungsberechtigte Person übernimmt die Verantwortung, unterschreibt den Antrag und bestätigt damit: „Wir stehen hinter diesem Inhalt, und wir können das Projekt wie beschrieben umsetzen.“
Damit ist klar: Auch wenn KI beim Schreiben unterstützt, liegt die finale Verantwortung bei Menschen und erfüllt somit die Vorgaben des EU AI Acts, dass die Nutzung nicht gekennzeichnet werden muss.
Trotzdem gilt: Fördermittelgeber können eigene Regeln aufstellen. Einige Institutionen, wie beispielsweise Stiftung Deutsches Hilfswerk, Horizon Europe oder die Deutsche Forschungsgemeinschaft, haben bereits Stellungnahmen veröffentlicht. Deshalb lohnt es sich immer, vorab einen Blick in die Förderrichtlinien zu werfen oder direkt nachzufragen, ob besondere Anforderungen existieren.
Unterm Strich gilt damit: Ja, wir dürfen KI zum Schreiben von Fördermittelanträgen einsetzen. Aber es gilt ein paar grundsätzliche Prinzipien zu berücksichtigen.
Förderanträge sind Vertrauensarbeit
Warum gibt es Förderanträge überhaupt? Zum einen helfen sie Förderinstitutionen, unterschiedliche Projektideen miteinander zu vergleichen. Der Antrag ist ihre zentrale Entscheidungsgrundlage: Welches Vorhaben passt am besten zu den Programmzielen? Welche Organisation soll bei begrenzten Fördermitteln unterstützt werden?
Zum anderen machen Förderanträge sichtbar, wie durchdacht ein Projekt ist. Wurde Zeit in die Projektplanung gesteckt? Sind die Ziele realistisch? Passt der Umfang zu den vorhandenen Ressourcen? Und hat das Team die nötige Erfahrung, um das Vorhaben umzusetzen? Und genau bei diesem zweiten Punkt hapert es, wenn wir über Ein-Klick-Anträge mit KI-Tools sprechen. Denn wenn wir nur ein paar Stichpunkte in ein KI-Tool eingeben, passiert eines von zwei Dingen:
Entweder: Die KI muss die Lücken selbst füllen. Und das bedeutet, sie erfindet, interpretiert oder vermutet Inhalte. Das kann zu Aussagen führen, die am eigentlichen Projekt vorbeigehen.
Oder: Wir geben der KI schon eine sehr detaillierte Projektskizze, die fast alles enthält und lassen den Text nur noch „schönschreiben“. Aber dann ist der große Zeitgewinn futsch. Denn dann haben wir die ganze inhaltliche Arbeit längst erledigt.
In beiden Fällen wird klar: Ohne echte inhaltliche Auseinandersetzung funktioniert es nicht. Denn Förderanträge sind keine reinen Textprodukte. Sie sind auch Teil der Projektentwicklung.
Qualität braucht Kontext
Neben dem Vertrauensaspekt gibt es einen zweiten grundsätzlichen Punkt: Qualität entsteht nicht automatisch dadurch, dass ein Text „rund“ klingt. KI-Modelle verarbeiten Sprache statistisch. Das heißt, sie erzeugen jene Formulierungen, die in ähnlichen Kontexten häufig vorkommen. Und genau darin liegt eine große Herausforderung.
KI kann:
- plausibel klingende, aber falsche Informationen einbauen,
- Projektpartner, Zielgruppen oder Maßnahmen „hinzuerfinden“,
- veraltete oder aus dem Zusammenhang gerissene Inhalte verwenden,
- unbewusst Vorurteile oder Stereotype reproduzieren – besonders bei marginalisierten Gruppen.
Ein besonderes Risiko sind sogenannte Halluzinationen. Darunter versteht man Antworten, die auf den ersten Blick fundiert wirken, aber faktisch falsch, frei erfunden oder nicht belegbar sind. Solche Fehler entstehen oft dann, wenn das KI-System zu wenig Kontext hat oder im Internet auf widersprüchliche Informationen stößt und trotzdem selbstbewusst klingende Antworten liefert. Das kann dazu führen, dass in einem Antrag falsche Studien zitiert werden, Maßnahmen auftauchen, die nie geplant waren, oder Wirkungszusammenhänge behauptet werden, für die es keine Grundlage gibt.
Gerade in Förderanträgen, in denen Glaubwürdigkeit und Fachwissen entscheidend sind, können Halluzinationen gravierende Folgen haben: von Missverständnissen bis hin zur direkten Ablehnung des Antrages.
Deshalb gilt: KI kann unterstützen, aber sie ersetzt keine fachliche Bewertung. Menschen müssen prüfen, nachschärfen, korrigieren und sicherstellen, dass der Text das Projekt korrekt widerspiegelt.
Datensicherheit: Was darf rein und was nicht?
Der dritte zentrale Aspekt betrifft den Umgang mit Daten. Förderanträge enthalten selten klassische personenbezogene Daten, wie Gesundheitsinformationen, Religionszugehörigkeiten oder Privatadressen von Einzelpersonen, da wir in Projektanträgen in den meisten Fällen über Zielgruppen sprechen. Somit ist die DSGVO meist nicht anwendbar.
Trotzdem arbeiten wir mit Inhalten, die nicht für die Öffentlichkeit bestimmt sind. Datensicherheit beim Einsatz von KI-Tools bedeutet für gemeinnützige Organisationen deshalb vor allem eines: Risikomanagement.
Es ist Aufgabe der Führungsebene, verbindliche Rahmen zu schaffen, damit Mitarbeitende sicher und selbstbewusst entscheiden können, welche Daten in ein KI-System eingegeben werden dürfen – und welche nicht.
Eine Organisation sollte festlegen, welche Daten zu welcher Risikoklasse gehören. Eine solche Einteilung hilft, im Alltag schnell zu entscheiden, welche Texte unbedenklich in KI-Tools genutzt werden können. Denn immer, wenn wir Daten in ein KI-Tool eingeben, verlassen diese Informationen unseren direkten Einflussbereich.
Auch wenn moderne Systeme mit hohen Sicherheitsstandards arbeiten, bleiben grundlegende Risiken bestehen:
1. Serverstandort & Zugriff durch Drittstaaten
KI-Tools mit Servern in den USA können unter den sogenannten Cloud Act fallen. Dieser verpflichtet US-Unternehmen, Behörden unter bestimmten Bedingungen Zugriff auf gespeicherte Daten zu gewähren. Für viele Inhalte ist das irrelevant, für manche Organisationen jedoch ein Risiko, das aktiv bewertet werden sollte.
2. Training von Modellen auf sensiblen Daten
Bei Business-Lizenzen ist die Nutzung von Kundendaten zum Training des Modells in der Regel deaktiviert. Trotzdem sollte man bei jedem Tool prüfen, ob dies vertraglich garantiert ist, insbesondere bei kostenlosen Versionen.
3. Datenlecks & Cyberangriffe
Auch sichere Systeme können von außen angegriffen werden. Wenn interne Strategie- oder Finanzinformationen in falsche Hände geraten, kann das erheblichen Schaden verursachen, sowohl inhaltlich als auch reputativ.
Was bedeutet das für die Praxis?
Sobald klar ist, welche Daten welche Risiken bergen, können Mitarbeitende sicher entscheiden: Was darf rein und was bleibt bewusst draußen? Gerade bei Informationen, die strategisch sensibel sind oder Rückschlüsse auf interne Entscheidungsprozesse zulassen, sollte man eher auf KI-Tools zurückgreifen, die Daten lokal verarbeiten.
Zudem spielt mittlerweile auch der Aspekt der Nachhaltigkeit eine Rolle. Wenn wir KI zielführend einsetzen, dann verbraucht das große Sprachmodell weniger Energie als wenn wir als Mensch diese Aufgaben erledigen. Trotzdem ist der Energieverbrauch höher als eine normale “klassische” Googleanfrage. Durch die rasante Ausweitung von KI-Funktionen in nahezu allen Tools steigt der gesellschaftliche Gesamtverbrauch spürbar an - etwas das wir als gemeinnützige Organisationen im Blick behalten sollten.
Kurz gesagt: Ein bewusster, sicherer und reflektierter Umgang mit KI ist unerlässlich, wenn wir im Antragsprozess mit sensiblen oder strategisch wichtigen Informationen arbeiten.
Livevorstellung der Fortbildung Praktischer Einsatz von KI-Tools für die Fördermittelgewinnung
Am 13. Januar 2026 von 11:00 bis 12:00 Uhr laden wir Sie herzlich zu unserem Info-Webinar zur 6-wöchigen Online-Fortbildung ein. Torsten Schmotz und Mira Pape als Leiterin der Weiterbildung stellt das Qualifizierungsangebot genauer vor. Weitere Infos und Anmeldung zum kostenlosen Info-Webinar: KI-Kurs – Förderlotse Torsten Schmotz




