Bei unserer redaktionellen Arbeit setzen wir auch Künstliche Intelligenz (KI) ein. Zum Recherchieren, im Dialog bei der Konzeptentwicklung oder beim Strukturieren von Buchideen. Seit Neuestem auch manchmal zur Erstellung von Bildern. Wir nutzen sie nicht zum Schreiben unserer Texte. Das werden wir auch in Zukunft alleine machen.
Wir möchten die kreativen Potenziale der Technologie zu nutzen, gleichzeitig aber die journalistische Integrität, Authentizität und Verantwortung wahren und KI ethisch einsetzen. Hierzu haben wir uns folgende Richtlinien gegeben.
7 Regeln für eine ethische KI
1. Keine Kompromisse bei unseren Werten:
Wir haben fünf rote Linien, die wir nicht überschreiten.
- Datenminimierung: Wir nutzen Tools, die sparsam mit Daten umgehen.
- Transparenz: Wir legen Wert auf transparente Systeme.
- Menschliche Kontrolle: Wir entscheiden, nicht der Algorithmus.
- Schutz vulnerabler Gruppen: Wir nutzen nur Tools ohne Vorurteile
- Kein Sucht-Design: Wir meiden Tools, die User extra lange binden
2. Eigenverantwortung: KI assistiert – wir entscheiden
Die redaktionelle Entscheidung und inhaltliche Verantwortung für finale Inhalte und Texte liegen bei uns.
3. Datenhoheit: Unsere Daten gehören uns
Wir wollen nicht, dass unsere Texte, Bilder oder Recherchen irgendwo auf irgendwelchen Big-Tech-Servern landen, um dort für Werbung, Trainingsdaten oder Schlimmeres zweckentfremdet zu werden.
4. Verzichten, wo möglich: Menschliche Lösungen haben Vorrang
Wir setzen KI nur ein, wenn sie einen klaren Mehrwert bietet – und die Risiken überschaubar sind.
5. Kinderschutz zuerst: Kein Profiling, keine Manipulation
Wir lehnen jedes KI-Tool ab, das Minderjährige trackt, von ihnen Profile erzeugt oder gezielt anspricht – ganz gleich, ob für Werbung, „personalisierte Lerninhalte“ oder andere Zwecke.
6. Transparenzpflicht: Offenlegung ist kein Feature, sondern eine Pflicht
User haben ein Recht zu wissen, wie Inhalte entstehen. Deshalb dokumentieren wir jeden KI-Einsatz bei unserer Arbeit.
7. Auswahl mit Rechenschaft: Wir hinterfragen, wer hinter der KI steht
Wird das Angebot von Risikokapitalgebern finanziert, die auf schnelle Profite aus sind? Verstecken sie, woher genau ihre Trainingsdaten kommen. Wir nutzen nur Tools, die uns folgende Fragen beantworten.
- Wer finanziert das Tool? (Risikokapital mit Profitdruck? Öffentliche Förderung?)
- Woher stammen die Trainingsdaten? (Lizenziert? Öffentlich? Gestohlen?)
- Wie wird mit Nutzerdaten umgegangen? (Lokal gespeichert? Weiterverkauf ausgeschlossen?)
Hier findest Du eine ausführliche Erläuterung zu allen Punkten.
Unser KI-Tools
Wir sind noch dabei herumzuexperimentieren und nutzen folgende Anbieter:

Lumo, ist von Proton, dem bekannten datenschutzfreundlichen E-Mail-Dienst ProtonMail – und hat dieselbe kompromisslose Haltung zur Privatsphäre. Das Tool läuft auf verschlüsselten Servern in der Schweiz, unterliegt strengen Datenschutzgesetzen und sammelt keine Nutzerdaten für Werbung oder Weiterverkauf. Besonders wichtig: Lumo ist open-source und ermöglicht lokale Installation, sodass keine Daten in die Hände von Tech-Konzernen gelangen.

LeChat wird von Mistral AI entwickelt, einem französischen KI-Unternehmen, das sich für offene und dezentrale KI einsetzt. Im Gegensatz zu geschlossenen Systemen wie denen von OpenAI oder Google veröffentlicht Mistral Teile seiner Modelle als Open-Source – damit User nachvollziehen können, wie die KI funktioniert. LeChat läuft auf europäischen Servern und unterliegt strengen Datenschutzregeln. Mistral verzichtet auf aggressive Datensammlung und setzt stattdessen auf Zweckbindung und Minimalismus.

Duck.ai ist ein europäisches Open-Source-Projekt, das sich bewusst von den großen US-KI-Konzernen abgrenzt. Das Tool setzt auf transparente Trainingsdaten und ermöglicht es Usern, Modelle lokal zu betreiben – ohne Abhängigkeit von Cloud-Diensten. Duck.ai verzichtet auf personalisiertes Tracking und engagement-optimierte Algorithmen. Stattdessen liegt der Fokus auf Nachhaltigkeit und Benutzerkontrolle – inklusive klarer Dokumentation, welche Daten wie genutzt werden.

neuroflash ist ein KI-Tool, das Transparenz und Datenschutz großschreibt – und das direkt aus Deutschland. Im Gegensatz zu vielen US-amerikanischen Anbietern legt neuroflash offen, wie die Modelle trainiert werden, und setzt auf DSGVO-konforme Datenverarbeitung. Das Tool bietet eine klare Trennung zwischen menschlicher und KI-generierter Arbeit, sodass User immer die Kontrolle behalten. Außerdem gibt es keine versteckten Tracking-Mechanismen oder engagement-getriebenen Algorithmen.
Was meinst du? Wie nutzt du Künstliche Intelligenz? Welche Angebote nutzt du? Worauf achtest du? Oder meidest du sie komplett? Hast du Erfahrungen oder weitere Informationen über die aufgeführten Tools? Dann schreibe uns oder hinterlasse einen Kommentar.

Hinterlasse einen Kommentar