Manipulationstechniken durch KI
Zielsetzung: Das Arbeitsblatt zielt darauf ab, Lernende für die vielfältigen Manipulationstechniken durch künstliche Intelligenz zu sensibilisieren. Sie sollen lernen, wie sie sich durch kritisches Hinterfragen vor gezielter Beeinflussung schützen können.
Inhalte und Methoden: Das Material vermittelt ein tiefes Verständnis für digitale Beeinflussung, indem es multimediale Inhalte wie Radiobeiträge und Zeitungsartikel mit praktischen Übungen wie Gruppenanalysen, Clickbait-Experimenten und der Erstellung eines Warn-Podcasts kombiniert. Dabei lernen die Teilnehmenden sowohl manipulative Techniken zu erkennen als auch Strategien zur kritischen Prüfung und zum Schutz vor digitaler Manipulation anzuwenden.
Kompetenzen:
- Medienkritik: Identifikation manipulativer sprachlicher und inhaltlicher Muster in digitalen Medien
- Analysefähigkeit: Untersuchung der Auswirkungen personalisierter Algorithmen auf das individuelle Entscheidungsverhalten
- Produktionskompetenz: Gestaltung präventiver Medieninhalte (Podcast) unter Nutzung digitaler Endgeräte
- Soziale Verantwortung: Reflexion über die gesellschaftlichen Folgen von KI-gesteuerter Desinformation und Manipulation
Zielgruppe und Niveau: Ab Klasse 8
54 other teachers use this template
Target group and level
ab Klasse 8
Subjects
Manipulationstechniken durch KI


Erster Eindruck
Hört euch gemeinsam den Radiobeitrag an.
Arbeitsauftrag:
- Worüber wird in dem Beitrag berichtet?
- Bildung von Hypothesen: Wie könnte KI genutzt werden, um Menschen zu manipulieren?
Bildung von Hypothesen

Der Manipulations-Baukasten
KI-Manipulation nutzt oft psychologische Tricks, um unser Verhalten zu steuern. In der folgenden Tabelle sind die Bausteine durcheinandergeraten. Verbinde die Technik mit dem passenden Beispiel und dem Ziel, das damit erreicht werden soll.
| Technik (Wie?) | Beispiel (Was passiert?) | Ziel (Warum?) |
|---|---|---|
| A) Personalisierung | Ein Algorithmus zeigt dir nur News, die deine Meinung bestätigen. | 1) Erzeugt Zeitdruck, damit du nicht lange überlegst. |
| B) Emotionale Aufladung | Ein Post nutzt Wörter wie „Gefahr“, „Schuld“ oder „Skandal“. | 2) Du fühlst dich verstanden und bleibst länger auf der Seite. |
| C) Scheinbare Fakten | Ein Text behauptet: „Studien belegen…“, nennt aber keine Quelle. | 3) Erzeugt starke Gefühle, damit du den Inhalt schneller teilst. |
| D) Künstlicher Druck | Ein Werbe-Bot schreibt: „Nur noch 5 Minuten verfügbar!“ | 4) Der Inhalt wirkt glaubwürdig und seriös, auch wenn er erfunden ist. |
Lösung

Arbeitsauftrag
Lies dir den folgenden Zeitungsartikel aufmerksam durch und notiere wichtige Informationen.
Die unsichtbare Macht der sozialen Medien
Berlin. In einer Welt, die von Informationen überflutet wird, stellen sich viele Menschen die Frage, wie soziale Medien zu einem der mächtigsten Werkzeuge unserer Zeit geworden sind. Eine interne Untersuchung, die dieser Zeitung exklusiv vorliegt, wirft ein neues Licht auf die Mechanismen, die hinter den Kulissen der sozialen Netzwerke wirken.
„Es ist erstaunlich, wie präzise soziale Medien das Verhalten der Nutzer:innen vorhersagen können“, erklärt eine Quelle, die anonym bleiben möchte. Doch wie gelingt es den Plattformen, solche Vorhersagen zu treffen? Die Antwort könnte einfacher sein, als viele vermuten.
Durch die Analyse riesiger Datenmengen schaffen es soziale Netzwerke, Inhalte bereitzustellen, die genau auf die Interessen der Nutzer:innen zugeschnitten sind. Diese Inhalte sind so fesselnd, dass sie die Aufmerksamkeit der Menschen stundenlang binden können. Ein:e Expert:in, der:die nicht genannt werden möchte, erklärt: „Es ist, als ob die Plattformen unsere Gedanken lesen könnten.“
Die Implikationen sind weitreichend. Während viele die sozialen Medien als Quelle der Wahrheit betrachten, warnen Kritiker:innen vor einer möglichen Verzerrung der öffentlichen Meinung. „Es ist wichtig, kritisch zu hinterfragen, welche Informationen uns erreichen und welche nicht“, sagt ein:e renommierte:r Analyst:in.
Obwohl offizielle Stellen die Neutralität der Algorithmen betonen, bleibt die Frage bestehen: Wie neutral sind die Informationen, die wir täglich konsumieren? Die Diskussion bleibt offen, doch eines ist sicher: Die Macht der sozialen Medien ist größer als je zuvor.
Schreibe die wichtigsten Aspekte hier auf.

Manipulationstechniken erkennen
Bildet nun 3er-4er-Gruppen und untersucht die vorliegenden Materialien (Audio & Text) auf mögliche Manipulationstechniken. Nutzt dazu die folgenden Leitfragen und notiert eure Ergebnisse stichpunktartig.
| Leitfrage | Notizen / Fundstellen |
|---|---|
| Werden Gefühle angesprochen (Angst, Schuld, Stolz, Gemeinschaft)? | |
| Wird mit „Expert:innen“ oder „Daten“ argumentiert, ohne sie konkret zu benennen? | |
| Wird ein „Wir gegen sie“-Denken aufgebaut? | |
| Werden kritische Stimmen abgewertet oder pauschal dargestellt? | |
| Wird Druck erzeugt, einer Meinung zuzustimmen? |

Clickbait-Labor
Nutzt die Leitfragen zur Manipulation, um selbst den „perfekten Clickbait“ zu entwerfen.
Ziel: Erstellt eine Schlagzeile für den Zeitungsartikel, die so manipulativ wie möglich ist.
Clickbait

Folgen abschätzen
Überlegt gemeinsam in der Gruppe, welche Folgen es haben kann, wenn KI-Inhalte ungeprüft verbreitet werden. Findet je ein konkretes Beispiel.
Beispiel

Schutzstrategien & Checkliste
Erstellt eine Checkliste mit drei kurzen Punkten, um KI-Inhalte in Zukunft kritisch zu prüfen.
Checkliste

Abschluss-Projekt: Euer Warn-Podcast
Erstellt eine kurze Audioaufnahme (ca. 60–90 Sekunden), in der ihr selbst vor KI-Manipulationstechniken zu dem Themenbereich warnt.
Inhalt eures Audios:
- Nennt zwei typische Anzeichen für Manipulation (z. B. emotionale Erpressung oder vage Expert:innen).
- Erklärt kurz eine mögliche Folge für die Gesellschaft.
- Gebt den Zuhörer:innen euren wichtigsten Tipp aus der Checkliste mit auf den Weg.
Tipp: Nutzt euer Smartphone oder ein Tablet. Achtet auf eine klare Aussprache und einen packenden Einstieg!
Notizen

Zusatzaufgabe: Filterblase
Erstellt gemeinsam eine Liste von Suchbegriffen zu einem Thema. Führt dann die Suche auf euren eigenen Smartphones durch und vergleicht die Ergebnisse. Achtet darauf, wie eure individuellen Präferenzen die Suchergebnisse beeinflussen könnten, und begründet, woran die Unterschiede liegen könnten.
Begriffe
Begründung
Lösung für die Lehrkraft
Erster Eindruck
Der Beitrag berichtet über die Manipulation durch Künstliche Intelligenz (KI), insbesondere wie KI-Technologien eingesetzt werden, um das Verhalten von Einzelpersonen zu beeinflussen. Er beleuchtet die technischen Aspekte der Manipulation, die Ziele dahinter und gibt Hinweise, wie man sich davor schützen kann.
Hypothesen zur Nutzung von KI zur Manipulation von Menschen:
- KI könnte genutzt werden, um personalisierte Werbung zu entwickeln, die gezielt auf die Schwachstellen und Vorlieben von Nutzer:innen eingeht, um deren Kaufentscheidungen zu beeinflussen.
- KI könnte eingesetzt werden, um politische Kampagnen zu gestalten, die Meinungen und Wahlverhalten durch maßgeschneiderte Inhalte und Fehlinformationen beeinflussen.
- KI könnte dazu verwendet werden, soziale Medien so zu steuern, dass sie Nutzer:innen dazu bringen, mehr Zeit auf Plattformen zu verbringen, indem sie Inhalte präsentieren, die deren Engagement maximieren.
- KI könnte in der Lage sein, durch die Analyse von Nutzerdaten vorherzusagen, welche Art von Nachrichten oder Informationen am ehesten geteilt oder geglaubt werden, und diese gezielt verbreiten, um gesellschaftliche Debatten zu lenken.
Der Manipulations-Baukasten
A) Ein Algorithmus zeigt dir nur News, die deine Meinung bestätigen. 2) Du fühlst dich verstanden und bleibst länger auf der Seite.
B) Ein Post nutzt Wörter wie „Gefahr“, „Schuld“ oder „Skandal“. 3) Erzeugt starke Gefühle, damit du den Inhalt schneller teilst.
C) Ein Text behauptet: „Studien belegen…“, nennt aber keine Quelle. 4) Der Inhalt wirkt glaubwürdig und seriös, auch wenn er erfunden ist.
D) Ein Werbe-Bot schreibt: „Nur noch 5 Minuten verfügbar!“ 1) Erzeugt Zeitdruck, damit du nicht lange überlegst.
| Leitfrage | Notizen / Fundstellen |
|---|---|
| Werden Gefühle angesprochen (Angst, Schuld, Stolz, Gemeinschaft)? | Angst wird angesprochen durch die Warnung vor einer möglichen Verzerrung der öffentlichen Meinung. |
| Wird mit „Expert:innen“ oder „Daten“ argumentiert, ohne sie konkret zu benennen? | Es wird von Expert:innen und Analyst:innen gesprochen, die nicht namentlich genannt werden. |
| Wird ein „Wir gegen sie“-Denken aufgebaut? | Es gibt keine direkte Bezugnahme auf ein „Wir gegen sie“-Denken. |
| Werden kritische Stimmen abgewertet oder pauschal dargestellt? | Kritiker:innen werden gewarnt, jedoch nicht abgewertet oder pauschal dargestellt. |
| Wird Druck erzeugt, einer Meinung zuzustimmen? | Es wird kein direkter Druck erzeugt, einer bestimmten Meinung zuzustimmen. |
Clickbait-Labor
Entlarvt: Soziale Medien lesen Ihre Gedanken und beeinflussen Ihre Meinung!
Folgen abschätzen
Wenn KI-Inhalte ungeprüft verbreitet werden, kann dies zu einer Vielzahl von Folgen führen. Ein konkretes Beispiel ist die Verbreitung von Fehlinformationen während einer Gesundheitskrise, wie der COVID-19-Pandemie. Plattformen könnten durch KI-generierte Inhalte fälschlicherweise behaupten, dass bestimmte unbewiesene Behandlungsmethoden wirksam sind. Nutzer:innen könnten diese Informationen als vertrauenswürdig betrachten und darauf basierend Entscheidungen treffen, die ihre Gesundheit gefährden. Dies unterstreicht die Notwendigkeit, die Quellen von Informationen kritisch zu hinterfragen und sicherzustellen, dass verbreitete Inhalte auf wissenschaftlichen Erkenntnissen und überprüfbaren Fakten basieren.
Schutzstrategien & Checkliste
Checkliste zur kritischen Prüfung von KI-Inhalten
Quellenvielfalt sicherstellen: Konsumiere Informationen aus unterschiedlichen Quellen, um eine breite Perspektive zu erhalten und mögliche Filterblasen zu vermeiden.
Algorithmen-Transparenz hinterfragen: Informiere dich darüber, wie die Algorithmen funktionieren und welche Kriterien sie verwenden, um Inhalte zu priorisieren.
Meinungsbildung reflektieren: Analysiere, wie die präsentierten Informationen deine Meinungen und Ansichten beeinflussen könnten, und betrachte alternative Standpunkte kritisch.
Warn-Podcast
- Emotionale Erpressung durch gezielte Inhalte
- Vage Expert:innen ohne klare Qualifikation
- Folge: Verzerrung der öffentlichen Meinung und Beeinflussung von Entscheidungen
- Tipp: Informationen kritisch hinterfragen und Quellen überprüfen