Diesen Beitrag kannst du lesen oder anhören.
Seit einiger Zeit nutzen wir Künstliche Intelligenz. Zum Recherchieren, im Dialog bei der Konzeptentwicklung oder beim Strukturieren von Buchideen. Seit Neuestem auch zur Erstellung von Bildern. Doch je mehr sich zeigte, wie stark und unberechenbar der Einfluss auf alle Bereiche unseres Lebens ist, desto mehr kamen wir ins Grübeln. Nun haben wir uns 7 Spielregeln für ethische KI gegeben. Regeln, die sie für uns klären und transparent machen sollen. Vielleicht sind sie auch hilfreich für dich.
Wir werden auf Für eine bessere Welt eine Seite veröffentlichen, die zeigt, wie wir als freie Medienschaffende mit dem Thema Ethische Künstliche Intelligenz umgehen. Die uns aber auch selbst daran erinnern soll.
Unsere 7 Spielregeln für ethische KI
1. Keine Kompromisse bei unseren Werten: Fünf rote Linien, die wir nicht überschreiten
Künstliche Intelligenz ist kein neutrales Werkzeug. Sie wird von Daten und Interessen der Konzerne geprägt, die sie entwickelt haben. Schlechte Voraussetzung für den ethischen Einsatz. Deswegen haben wir fünf Mindeststandards definiert:
- Datenminimierung: KI-Systeme sammeln oft mehr Daten, als nötig. Und selbst „anonymisierte“ Datensätze lassen sich zurückverfolgen – das zeigte eine Studie in Nature (2019) [1] [2]. Deswegen wollen wir Tools nutzen, die nachweislich sparsam mit Daten umgehen – wie Ollama [3], das lokale KI-Modelle auf unseren Computern ermöglicht.
- Transparenz: Die meisten Anbieter verraten nicht, wie ihre Modelle funktionieren. Das Whitepaper des Bundesamts für Sicherheit in der Informationstechnik (BSI) [4] zeigt, dass KI-Systeme oft als Blackbox mit verborgenen internen Prozessen agieren. Ein besonders dreistes Beispiel ist Clearview AI, das Milliarden von Fotos aus sozialen Medien ohne Einwilligung absaugte und an Sicherheitsbehörden verkaufte [5]. Wir schauen uns jetzt mal Plattformen wie Hugging Face [6] an, die Open-Source-Modelle mit einsehbaren Trainingsdaten anbieten, um das ganze noch besser zu verstehen. Und auch das Deutsche Forschungszentrum für künstliche Intelligenz (dfki ai) [7] [8]. Schon speziell, aber ein interessanter Ansatz und wir wollen dazu lernen.
- Menschliche Kontrolle: KI macht Fehler – etwa wenn sie „halluziniert“, wie interne Tests der ChatGPT-Entwicklerfirma OpenAI zeigte [9] [10] [11]. Wir wollen Algorithmen nichts allein entscheiden lassen. Denn sie sollen nicht mehr sein, als ein Werkzeug, und schon gar keine Autorität, der wir uns unterordnen und alles glauben.
- Schutz vulnerabler Gruppen: KI-Systeme diskriminieren oft unbewusst, weil sie mit verzerrten Daten trainiert wurden. Ein Beispiel ist Amazon’s Rekrutierungs-KI [12], die Frauen benachteiligte. Wir versuchen also Tools auf solche Vorurteile zu prüfen – und meiden sie, wenn sie nicht fair sind.
- Kein Sucht-Design: Plattformen wie TikTok oder Instagram nutzen KI, um User möglichst lange zu binden und das geht nicht selten auf Kosten ihrer psychischen Gesundheit. Jugendliche mit psychischen Problemen verbringen ohnehin mehr Zeit auf Social-Media-Plattformen [13] [14]. Solche Angebote meiden wir.
Warum so streng? Weil wir täglich sehen können, was passiert, wenn Technologie ohne ethische Leitplanken eingesetzt wird. Wenn ein Tool unsere Standards nicht erfüllt, nutzen wir es nicht. Punkt. Wir wollen eine ethische KI.
2. Eigenverantwortung: KI assistiert – wir entscheiden
KI kann Ideen liefern, Texte vorstrukturieren oder Bilder entwerfen. Aber die Verantwortung für den Inhalt tragen wir. Eben weil KI-Systeme so fehleranfällig sind – und weil wir nicht zulassen wollen, dass Algorithmen bestimmen, was letztlich veröffentlicht wird. Das machen wir.
Ohne menschliche Kontrolle landen diese Fehler unweigerlich in der Öffentlichkeit. Das Medienhaus CNET musste das schmerzhaft lernen: 2023 veröffentlichte es Dutzende KI-generierte Artikel, die so viele Fehler enthielten, dass sie später korrigiert oder gelöscht werden mussten [15]. Und in diese Falle wollen wir nicht tappen. Der finale Text, die redaktionelle Entscheidung und die inhaltliche Verantwortung liegen bei uns.
3. Datenhoheit: Unsere Daten gehören uns – nicht den Tech-Konzernen
Daten sind die neue Währung. Und die geben wir nicht einfach her. Viele KI-Anbieter finanzieren ihr „kostenloses“ Angebot, indem sie Nutzerdaten sammeln, unsere Verhaltensdaten. Sie analysieren und weiterverkaufen. Wir machen da nicht mit.
Der Cambridge Analytica-Skandal [16] hat gezeigt, wie gefährlich unkontrollierter Datenfluss ist: Persönliche Informationen wurden missbraucht, um Wahlen zu manipulieren. Bis heute wissen wir nicht, wo all die Daten gelandet sind. Wir setzen stattdessen auf lokale Lösungen oder Anbieter, die nachweislich „datensparsam“ arbeiten.
Ein Beispiel: Ollama [17] ermöglicht es, KI-Modelle auf eigenen Servern oder Rechnern zu betreiben – ohne dass Daten in die Cloud abwandern. Oder auch LocalAI [18], das ähnliche Funktionen bietet. Wir wollen nicht, dass unsere Texte, Bilder oder Recherchen irgendwo auf irgendwelchen Big-Tech-Servern landen, um dort für Werbung, Trainingsdaten oder Schlimmeres zweckentfremdet zu werden.
4. Verzichten, wo möglich: Menschliche Lösungen haben Vorrang
KI ist nicht immer die beste Antwort. Meist sind menschliche Lösungen viel nachhaltiger, kreativer und … fairer. Deshalb setzen wir sie nur ein, wenn sie einen klaren Mehrwert bietet – und die Risiken überschaubar sind.
Ein oft ignoriertes Problem ist auch der energetische Fußabdruck von KI [19]. Darauf muss man erst mal kommen. Das Training großer Modelle, die wir zum Beispiel für unsere Chats nutzen, verbraucht enorme Mengen an Strom und Wasser. Eine Studie der Universität Massachusetts (2019) hat errechnet, dass ein einziges KI-Modell fast so viel CO₂ ausstößt wie fünf Autos in ihrem gesamten Lebenszyklus [20]. In einer Zeit, in der wir uns um die Klimakrise sorgen, kein Kavaliersdelikt.
Wo bleibt der Mensch? 74% der Kunstschaffenden befürchten, dass durch eine Flut von durch KI erstellten Werken ihre Arbeit in die Bedeutungslosigkeit gedrängt wird. Immerhin 58%, dass Kunstwerke durch KI immer beliebiger werden und 56%, dass durch KI ihre Einnahmemöglichkeiten wegfallen. [21]. Für Themen, die Empathie, Nuancen oder persönliche Perspektiven erfordern, oder auch Ausdruck des Menschlichen sind, wie zum Beispiel Kunst und Kultur, sollten menschliche Lösungen immer Vorrang haben.
5. Kinderschutz zuerst: Kein Profiling, keine Manipulation
Kinder und Jugendliche sind keine Zielgruppe für Datenkraken. Wir lehnen jedes KI-Tool ab, das Minderjährige trackt, von ihnen Profile erzeugt oder gezielt anspricht – ganz gleich, ob für Werbung, „personalisierte Lerninhalte“ oder andere Zwecke.
Die Gefahren sind real: UNICEF warnt davor, dass KI-basiertes Profiling Kinder in „Filterblasen“ einsperrt und ihre Entwicklung beeinflusst [22]. Und die EU-DSGVO [23] sowie der US-amerikanische COPPA [24] setzen klare Grenzen – die viele Tech-Unternehmen allerdings ignorieren oder sogar bekämpfen.
Ein besonders eklatantes Beispiel: YouTube Kids. Die Plattform nutzte KI, um Kinder möglichst lange vor dem Bildschirm zu halten [25]. Algorithmen analysierten ihr Verhalten und spielten ihnen Inhalte aus, die sie „fesselten“ – oft mit fragwürdigen psychologischen Tricks. Wir distanzieren uns von solchen Praktiken und Unternehmen. Bei uns gilt: Keine personalisierte Werbung, kein Tracking, keine „smarten“ Empfehlungen für Minderjährige.
6. Transparenzpflicht: Offenlegung ist kein Feature, sondern eine Pflicht
User haben ein Recht zu wissen, wie Inhalte entstehen. Deshalb dokumentieren wir jeden KI-Einsatz bei unserer Arbeit.
Warum? Weil Transparenz Vertrauen schafft. Eine Studie des Reuters Institute (2023) zeigt, dass User KI-generierten Inhalten skeptisch gegenüberstehen – es sei denn, der Einsatz wird offen kommuniziert [26]. Wir gehen noch einen Schritt weiter: Jeder KI-unterstützte Text wird gekennzeichnet, und wir erklären, wie und warum wir das Tool genutzt haben.
Ein negatives Beispiel: BuzzFeed experimentierte 2023 mit KI-generierten Quizzen – ohne die User klar darauf hinzuweisen [27]. Als das aufflog, gab es einen riesigen Shitstorm. Wir wollen keine heimlichen KI-Tricksereien, sondern klare Kommunikation. So wie wir das auch von anderen erwarten.
Unser Standard: Ein Hinweis wie „Für diesen Text haben wir KI zur Unterstützung bei der Recherche genutzt.“ gehört dazu – genau wie eine kurze Erklärung, welches Tool wir verwendet haben und wofür genau.
7. Auswahl mit Rechenschaft: Wir hinterfragen, wer hinter der KI steht
Nicht alle KI-Anbieter sind gleich. Manche werden von Risikokapitalgebern finanziert, die auf schnelle Profite aus sind – oft auf Kosten
der ethischen Anwendung. Andere verstecken, woher genau ihre Trainingsdaten kommen. Wir nutzen nur Tools, die unsere Fragen beantworten.
Wir setzen auf Anbieter wie neuroflash, [28] die transparent über ihre Datenquellen informieren und ethische Standards einhalten. Wir prüfen generell:
- Wer finanziert das Tool? (Risikokapital mit Profitdruck? Öffentliche Förderung?)
- Woher stammen die Trainingsdaten? (Lizenziert? Öffentlich? Gestohlen?)
- Wie wird mit Nutzerdaten umgegangen? (Lokal gespeichert? Weiterverkauf ausgeschlossen?)
Wenn ein Anbieter diese Fragen nicht beantworten kann oder will, wird´s schwierig.
Gefällt dir unsere Arbeit?
Dann werde Good-Rebels-Supporter!
Wir sind bei steady – dem Ökosystem für unabhängige Medien. Darüber kannst du schon ab 5 Euro monatlich dabei sein. So ermöglichst du es uns, unsere Arbeit für dich und alle anderen kostenfrei anzubieten. Außerdem triffst du als Mitglied uns und andere Good Rebels für eine bessere Welt!
Dennoch bleibt für uns die Frage noch offen, wie man die Verwendung frei zugänglicher Daten im Internet zum Training der Programme bewerten muss. Immerhin gäbe es gar keine KI-Angebote, wenn es nicht Menschen gäbe, deren Vorarbeit, Kreativität und geistiges Eigentum hierfür genutzt worden wäre. Hier werden wir das Projekt „Stealing isn´t Innovation“ der Human Artistry Campaign, einer globalen Koalition von mehr als 180 Gruppen weltweit, die sich für verantwortungsbewusste, ethische KI einsetzt, im Auge behalten.

So, was meinst du? Denkst du auch über den Einsatz von KI nach? Macht er dir zu schaffen? Hast du eigene Regeln aufgestellt? Wir freuen uns über eine Unterhaltung und Feedbacks zu diesem wichtigen Thema. Kommentiere oder schreibe uns an.
Für diesen Text haben wir die KI Lumo von Proton zur Unterstützung bei der Recherche und im Dialog über die Spielregeln genutzt.
Links & Quellen
- [1] „Weitere Studie belegt Lüge „anonymer“ Daten“ . netzpolitik.org: https://netzpolitik.org/2019/weitere-studie-belegt-luege-anonymer-daten/
- [2] „Estimating the success of re-identifications in incomplete datasets using generative models“ . nature communications: https://www.nature.com/articles/s41467-019-10933-3
- [3] Ollama: https://ollama.com
- [4] BSI-Whitepaper „Transparenz von KI-Systemen“: https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Whitepaper-Transparenz-KI-Systeme.pdf?__blob=publicationFile&v=3
- [5] „Strafanzeige gegen Clearview AI wegen illegaler globaler Biometrie-Datenbank“ . noyb: https://noyb.eu/de/criminal-complaint-against-facial-recognition-company-clearview-ai
- [6] Hugging Face: https://huggingface.co/
- [7] dfki: https://www.dfki.de/web
- [8] dfki: https://www.dfki.de/web/forschung/forschungsbereiche/smarte-daten-wissensdienste/themenfeld-generative-und-transparente-ki
- [9] „ChatGPT & Co erzählen immer mehr Unsinn“ . zdf_heute: https://www.zdfheute.de/panorama/kuenstliche-intelligenz-ki-chatgpt-sprachmodelle-halluzinationen-entwicklung-100.html
- [10] „OpenAI o3 and o4-mini System Card“ . OpenAI (Screen) via archive.today: https://archive.ph/58jZH
- [11] „OpenAI o3 and o4-mini System Card“ . OpenAI Test: https://cdn.openai.com/pdf/2221c875-02dc-4789-800b-e7758f3722c1/o3-and-o4-mini-system-card.pdf
- [12] „Insight – Amazon scraps secret AI recruiting tool that showed bias against women“ . Reuters: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G/
- [13] „Social-Media-Konsum Jugendliche mit psychischen Problemen anfälliger?“ . tagesschau: https://www.tagesschau.de/wissen/gesundheit/jugendliche-soziale-medien-100.html
- [14] „Social media use in adolescents with and without mental health conditions“ . Nature Human Behaviour: https://www.nature.com/articles/s41562-025-02134-4
- [15] „Grobe Fehler: CNET muss alle KI-Artikel prüfen“ . t3n: https://t3n.de/news/cnet-ki-texterstellung-falschinformation-1528377/
- [16] „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach“ . The Guardian: https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election
- [17] Ollama.ai: https://ollama.com
- [18] LocalAI: https://localai.io
- [19] „Quantifying the Carbon Emissions of Machine Learning“ . Cornell University: https://arxiv.org/abs/1910.09700
- [20] „Wie Künstliche Intelligenz der Umwelt schadet“ . Deutsche Welle: https://www.dw.com/de/wie-künstliche-intelligenz-der-umwelt-schadet/a-66305844
- [21] „KI UND BILDENDE KUNST“ . Umfrage der Initiative Urheberrrecht: https://www.kunstfonds.de/fileadmin/user_upload/Kunstfonds/Abbildungen/Publikationen/Studien/KI24/KF_Studie_KI_und_Bildende_Kunst.pdf
- [22] „The future of Artificial Intelligence – Opportunities and risks for children and the child rights agenda“ . UNICEF: https://www.unicef.org/innocenti/stories/future-artificial-intelligence
- [23] Text DSGVO . Amtsblatt der Europäischen Union: https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:32016R0679
- [24] „Children’s Online Privacy Protection Rule („COPPA“)“ . FEDERAL TRADE COMMISSION: https://www.ftc.gov/legal-library/browse/rules/childrens-online-privacy-protection-rule-coppa
- [25] „Sammeln von Kinderdaten: Youtube muss 170 Millionen Dollar Strafe zahlen“ . TAGESSPIEGEL: https://www.tagesspiegel.de/wirtschaft/youtube-muss-170-millionen-dollar-strafe-zahlen-6871636.html
- [26] „Global audiences suspicious of AI-powered newsrooms, report finds“ . Reuters: https://www.reuters.com/technology/artificial-intelligence/global-audiences-suspicious-ai-powered-newsrooms-report-finds-2024-06-16/
- [27] „BuzzFeed launches Infinity Quizzes, creating personalized stories powered by OpenAI“ . TechCrunch . https://techcrunch.com/2023/02/14/buzzfeed-launches-infinity-quizzes-creating-personalized-stories-powered-by-openai/?guccounter=1
- [28] Neuroflash: https://neuroflash.com/de/

Hinterlasse einen Kommentar