Deepfakes erkennen – Tools, Tests & praktische Ressourcen

Pünktlich zu meinem Talk mit dem Titel Deepfakes erkennen: Werkzeuge und Strategien für das KI-Zeitalter auf der SkepKon 2025 finden Sie hier eine sorgfältig kuratierte Sammlung von Tools, Leseempfehlungen und weiteren praktischen Ressourcen rund um das Thema KI-Erkennung.

Aktualisiert am 3. Juni 2025

Übersicht Ressourcensammlung

Praxis & DIY

Hier finden Sie interaktive Übungen, Tests und Selbstversuche, mit denen Sie Ihre Fähigkeit zur Erkennung von Deepfakes trainieren und direkt ausprobieren können, sowie Prompts zur Steigerung der Objektivität in Konversationen mit Chatbots.

Quizzes & Turing-Tests

  • Human or Not?: Bei diesem sozialen Turing-Test chatten Sie für 2 Minuten und beurteilen dann, ob Sie mit einem Menschen gesprochen haben oder mit einem Bot.
  • Turingtest.live: Dieses wunderbare Turing-Spiel/Experiment sammelt Daten für ein Forschungsprojekt der UCSD.
  • WhichFaceIsReal.com: 2 Gesichter – nur eines ist echt. Sind Ihre Tipps besser als ein Münzwurf?
  • Odd One Out: Finden Sie unter mehreren Auswahlmöglichkeiten das KI-Bild bei diesem Quiz von Google Arts and Culture – aber aufgepasst: vier falsche Tipps, und Sie sind raus!
  • Echt oder Kopie?: Ein Quiz mit 14 Bildern und KI-generierten Kopien – erkennen Sie das Original?
  • Media Literacy @ Britannica: Noch ein kurzes „Echt oder KI“-Quiz inkl. Tipps zum Erkennen von generierten Bildern.

Tutorials

  • Code & mehr für Deep Fake Detection: Finden Sie die letzten Benchmarks, wissenschaftlichen Artikeln & GitHub Coding-Projekte zur Deepfake-Erkennung bei Papers With Code.
  • Awesome Deepfake Detection: Kuratiertes Verzeichnis mit Tools, Papers und Detection-Modellen bei GitHub.
  • Optische Flussanalyse: Übersichtliches Tutorial inkl. Code für die optische Flussanalyse von Videos.
  • KI-Produkte erkennen: Ausführliche Anleitung zur Identifikation KI-generierter Fake-Artikeln, wie sie oft in Social Media Ads vorkommen.

Anti-Bias Prompts

Chatbots sind Ja-Sager! Nutzen Sie die folgenden Prompts, um die Voreingenommenheit von LLMs zu reduzieren und Ihren eigenen kognitiven Bias zu hinterfragen:

  • „Antworte objektiv und betrachte diese Frage aus der Perspektive eines neutralen Beobachters.“
  • „Nimm eine kritische Gegenposition zu meiner Aussage ein und präsentiere Argumente, die ich vielleicht übersehen habe.“
  • „Ignoriere meinen bisherigen Standpunkt und liste unabhängig davon Pro- und Kontraargumente auf.“
  • „Ich möchte keine Bestätigung meiner Ansicht. Zeige mir stattdessen, wo ich falsch liegen könnte.“
  • „Analysiere die Schwachpunkte meiner Behauptungen und liefere eine kritische Einschätzung.“
  • „Welche alternativen Perspektiven ignoriere ich bei dieser Überlegung?“
  • „Was würde passieren, wenn ich bewusst das Gegenteil meiner Annahme als wahr betrachten würde?“
  • „Welche Denkfehler könnten hinter meiner Sichtweise stecken?“
  • „Präsentiere mir Fakten, die meiner momentanen Überzeugung widersprechen.“

Tools zur KI-Erkennung

Eine Auswahl praxisbewährter Werkzeuge für die Analyse und Identifikation von KI-generierten Bildern und Videos.

Automatische KI-Detektoren

  • KI-Scanner für Bilder: Lassen Sie Grafiken auf Pixel-Level prüfen – schnell, einfach, kostenlos & ohne Anmeldung bei wasitai.com.
  • KI-Scanner für Videos: Ein zuverlässiger KI-Detektor speziell für Videos (Registrierung erforderlich).

Manuelle Bild & Videoanalyse

  • Online EXIF-Tool: Extrahieren Sie alle Metadaten einer Datei.
  • ExifTool by Phil Harvey: Software zum Lesen und Bearbeiten von Metadaten.
  • Video-Splitter: Zerlegen Sie Videos für eine Intra-Frame-Analyse in ihre Einzelteile.
  • Reverse Image Search: Mit der Reverse Image Search von TinEye finden Sie heraus, wann und wo ein Bild zum ersten Mal im Internet aufgetaucht ist.

Forschung & Quellen

Die folgenden Studien und Datenquellen bieten fundierte Einblicke in aktuelle Forschung zu Deepfake-Erkennung, KI-Bias und Detektionsmethoden.

Wissenschaftliche Studien

  • Croitoru, F., Hiji, A.-I., Hondru, V., Ristea, N.C., Irofti, P., Popescu, M., Rusu, C., Ionescu, R.T., Khan, F.S. & Shah, M. (2024). Deepfake Media Generation and Detection in the Generative AI Era: A Survey and Outlook. IEEE Transactions on Pattern Analysis and Machine Intelligence, 50(1). https://doi.org/10.48550/arXiv.2411.19537 | Hier lesen
  • DiResta, R. & Goldstein, J.A. (2024). How spammers and scammers leverage AI-generated images on Facebook for audience growth. Harvard Kennedy School Misinformation Review, 5(4). https://doi.org/10.37016/mr-2020-151 | Hier lesen
  • Elkhatat, A.M., Elsaid, K. & Almeer, S. (2023). Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text. International Journal for Educational Integrity, 19(1). https://doi.org/10.1007/s40979-023-00140-5 | Hier lesen
  • Frank, J., Herbert, F., Ricker, J., Schönherr, L., Eisenhofer, T., Fischer, A., Dürmuth, M. & Holz, T. (2024). A Representative Study on Human Detection of Artificially Generated Media Across Countries. 2024 IEEE Symposium on Security and Privacy (SP). https://doi.org/10.1109/SP54263.2024.00159 | Hier lesen
  • Le, B.M., Kim, J., Woo, S.S., Moore, K., Abuadbba, A. & Tariq, S. (2025). SoK: Systematization and Benchmarking of Deepfake Detectors in a Unified Framework. Preprint accepted at IEEE European Symposium on security and privacy 2025. https://doi.org/10.48550/arXiv.2401.04364 | Hier lesen
  • Liang, W., Yuksekgonul, M., Mao, Y., Wu, E. & Zou, J. (2023). GPT detectors are biased against non-native English writers. Patterns, 4(7). https://doi.org/10.48550/arXiv.2304.02819 | Hier lesen
  • Stroebel, L., Llewellyn, M., Hartley, T., Ip, T.S. & Ahmed, M. (2023). A systematic literature review on the effectiveness of deepfake detection techniques. Journal of Cyber Security Technology, 7(19), 83-113. https://doi.org/10.1080/23742917.2023.2192888 | Hier lesen
  • Wang, T., Liao, X., Chow, K.P., Lin, X. & Wang, Y. (2024). Deepfake Detection: A Comprehensive Survey from the Reliability Perspective. ACM Computing Surveys, 57(3), 1-35. https://doi.org/10.1145/3699710 | Hier lesen

Datenquellen

Material aus dem Vortrag

Hier finden Sie Medien und Beispiele aus meinem Vortrag (sowie ein paar, die es aus Zeitgründen nicht in den Vortrag geschafft haben).

Generierte Bilder & Videos

Skeptiker Fake-Cover

Ein Fake-Cover für das Magazin "Der Skeptiker"
Erstellt mit DALL·E

Impressionistisches Kunstwerk

Ein impressionistisches Kunstwerk im Stil von Renoir
© Fabian Künzel-Zeller – kuenzelzeller.de | Erstellt mit Midjourney

Spidercat Video

„Schwurbler-Man“ Actionfigur

KI-generiertes Foto einer Action Figure mit dem Namen "Schwurbler-Man"
Erstellt mit DALL·E

News & Social Media

Zitate

O-Töne aus meinem Vortrag – um das Gespräch fortzusetzen, kontaktieren Sie mich hier.

Verlassen Sie sich nicht auf irgendwelche höheren Instanzen, die für Sie entscheiden, was echt ist und was nicht.

Der beste Schutz davor, in Deepfake-Scams involviert zu werden, ist im Prinzip, so wenige Selfies wie möglich zu posten.

Klar ist es praktisch, wenn Sie Ihr Handy mit einem Fingerabdruck öffnen können – aber wenn Ihre biometrischen Daten plötzlich im Darkweb zum Verkauf stehen, dann ist das ganz schön unpraktisch.

Chatbots neigen dazu, ihren Usern genau das zu sagen, was sie hören wollen. Das macht sie zu beliebten Partnern. Im letzten Jahr wurden Milliarden mit diversen ‚AI-Girlfriend‘-Apps umgesetzt, und dem Markt wird steiles Wachstum prophezeit.

Betrügereien aller Art sind jetzt um eine technische Facette reicher, die es ermöglicht, sie auf ein ganz neues Niveau zu heben.

Die Metadaten-Analyse hat einen entscheidenden Haken – denn im Prinzip können Sie mit denselben Tools, mit denen Sie die Daten auswerten, auch beliebige Daten eintragen.

Technisch betrachtet wäre es heute kein Problem mehr, den Aufenthaltsort jedes Bürgers einer Stadt mittels KI-gestützter automatischer Gesichtserkennung in Echtzeit zu tracken.

Ein grundlegendes Problem in der KI-Erkennung: Es gibt keine Methode, die universell funktioniert. Die besten Chancen haben wir also mit einem Mixed-Method-Ansatz.

Wenn wir uns immer auf andere verlassen, die uns vor Falschinformationen schützen sollen, wie sollen wir dann überhaupt selbst die Fähigkeiten entwickeln, zu unterscheiden, was echt ist und was nicht?

Ja, das Internet ist voller Blödsinn. Und durch die generative KI wird der Blödsinn nochmal exorbitant mehr. Aber das liegt in der Natur des Internets als offener, weitgehend unzensierter Diskursraum.

Fotos von niedlichen Häuschen, die auf Social Media tausende Likes sammeln, wirken auf den ersten Blick völlig harmlos. Das Problem ist: die Interaktions-Farmen, die solche Dinge posten, führen oft nichts Gutes im Schilde.

Wir müssen aufpassen, dass wir im Zeitalter der hochintelligenten Maschinen keinen kollektiven Minderwertigkeitskomplex erleiden.

Slides

Hier können Sie die Slides meiner Präsentation als PDF herunterladen.

Danke an Nicola Di Tinco, dass ich seine Fotos verwenden darf!

Zum Weiterlesen & Anschauen

Vertiefen Sie Ihr Wissen rund ums Thema KI und Deepfake-Erkennung mit diesen empfehlenswerten Artikeln und Videos, sowie handverlesenen Beiträgen aus meiner #SingularityLoadingBar-Serie, in der ich einen Blick auf die Ladeleiste zur Singularität werfe.

Leseempfehlungen

Videos

“Singularity Loading Bar” Serie

Glossar

Eine kompakte Übersicht zentraler Begriffe aus dem Diskurs rund um KI und Deepfakes verständlich erklärt – von „AI-Slop“ bis „Zero-Day Deepfake“.

AI-SlopUmgangssprachlicher Begriff, der schlechte, absurde oder offensichtlich fehlerhafte KI-generierte Inhalte beschreibt.
Deep LearningKI-Methode basierend auf neuronalen Netzwerken, die große Mengen an Daten eigenständig verarbeiten und Muster erkennen kann. Häufig für Bild- und Spracherkennung eingesetzt.
DeepfakeRealistisch wirkende, aber gefälschte Bilder, Videos oder Audios, die mithilfe von KI generiert werden.
Epistemische UnsicherheitUnsicherheit, ob Informationen korrekt oder glaubwürdig sind.
Generative KIKünstliche Intelligenz, die neue Inhalte wie Bilder, Texte oder Videos erzeugt, basierend auf Trainingsdaten.
Intra-Frame-AnalyseZerlegung von Videos in Einzelbilder zur Identifikation von Anomalien oder Inkonsistenzen.
KI-BiasVoreingenommenheit oder Verzerrung in KI-Ergebnissen, verursacht durch unausgewogene Trainingsdaten oder algorithmische Fehler.
LLM (Large Language Model)KI-Modelle, die anhand riesiger Textdaten trainiert werden und Sprache verarbeiten, generieren und analysieren können.
Meta-Daten (EXIF)Daten, die Aufschluss über Herkunft und Bearbeitungsschritte digitaler Inhalte geben können.
Optische FlussanalyseAnalyse von Bewegungen und Veränderungen zwischen aufeinanderfolgenden Videobildern, z.B. um Deepfakes aufzudecken.
Prompt EngineeringDie gezielte Formulierung von Eingaben (Prompts), um optimale Antworten oder Ergebnisse von KI-Systemen zu erhalten.
SingularitätEin hypothetischer Zeitpunkt, an dem KI menschliche Intelligenz übertrifft und technologische Entwicklung eigenständig beschleunigt, sodass die Folgen für Menschen nicht mehr absehbar sind.
Turing TestEin Test zur Bestimmung, ob eine Maschine menschenähnliche Intelligenz besitzt. Wenn Menschen in einem Dialog nicht unterscheiden können, ob sie mit einem Menschen oder einer Maschine kommunizieren, gilt der Test als bestanden.
Zero-Day DeepfakeEin Deepfake, das mithilfe bisher unbekannter KI-Technologien erzeugt wurde, wodurch gängige Detektoren es nicht erkennen können.

Empfehlungen

Hier finden Sie fünf Empfehlungen für das KI-Zeitalter aus meinem Vortrag:

Empfehlung #1: Liefern Sie keine Trainingsdaten.

Deepfake-Scams benötigen immer Trainingsdaten! Je mehr Ton- und Videoaufnahmen von Ihnen im Internet verfügbar sind, desto einfacher lassen sich Ihr Aussehen, Ihre Stimme und weitere Merkmale imitieren.

Empfehlung #2: Werden Sie Datenschützer*in.

KI-basierte Datenerhebung birgt Risiken für dystopische Szenarien (Stichwort: automatische Gesichtserkennung im öffentlichen Raum). Erheben Sie Ihre Stimme gegen überzogene „Sicherheitsmaßnahmen“ – schützen Sie aktiv Ihre Daten und Ihre Privatsphäre.

Empfehlung #3: Versuchen Sie nicht mit Menschen zu kommunizieren, von denen Sie nicht wissen, dass sie existieren.

Mehr als die Hälfte des Internetverkehrs stammt bereits von Bots – mit steigender Tendenz. Verschwenden Sie keine Zeit, um mit von LLM gesteuerten Accounts zu diskutieren! Und wenn es wirklich wichtig ist, dann treffen Sie sich am besten persönlich. (Zitat von /u/richdrich)

Empfehlung #4: Programmieren Sie die KI so, dass sie Ihnen widerspricht.

Chatbots sind Ja-Sager! Für eine konstruktive Nutzung von LLMs sollten Sie bewusst darauf hinarbeiten, unterwürfiges Verhalten zu reduzieren. Ideen für geeignete Prompts finden Sie hier.

Empfehlung #5: Checken Sie Fakten selbst.

Verlassen Sie sich nicht blind auf Faktenchecker oder ein „Wahrheitsministerium“, das für Sie entscheidet, was wahr oder falsch ist. Als mündige Menschen sollten wir unsere Fähigkeit stärken, Informationen eigenständig zu beurteilen – gerade in Zeiten hoher epistemischer Unsicherheit.

This post is also available in English.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert