Digital

Deepfakes von Ärzten: Betrug breitet sich auch auf unbekannte Mediziner aus

Die Bundesärztekammer warnt vor gefälschten Videos von Medizinern – nicht nur Prominente sind betroffen.

Von ZenNews24 Redaktion 3 Min. Lesezeit
Deepfakes von Ärzten: Betrug breitet sich auch auf unbekannte Mediziner aus

Die Deepfake-Technologie wird von Betrügern immer häufiger missbraucht, um gefälschte Videos von Ärzten zu erstellen – und das Phänomen beschränkt sich längst nicht mehr auf bekannte Mediziner. Nach Angaben der Bundesärztekammer werden mittlerweile auch Videos von weniger bekannten oder gänzlich unbekannten Ärztinnen und Ärzten manipuliert. Dies deutet auf eine systematischere Ausnutzung der Technologie für kriminelle Zwecke hin, die über Einzelfälle hinausgeht.

Hintergrund

Deepfakes sind durch Künstliche Intelligenz erzeugte oder manipulierte Video- und Audioinhalte, die echte Personen täuschend echt darstellen, obwohl sie gefälscht sind. Die Technologie hat sich in den letzten Jahren erheblich weiterentwickelt und wird zunehmend leichter zugänglich. Während die Erstellung hochwertiger Deepfakes ursprünglich spezialisiertes Wissen erforderte, ermöglichen heute zahlreiche online verfügbare Tools auch Laien die Herstellung überzeugender Fälschungen.

Im Bereich der Medizin haben Deepfakes besondere Brisanz: Gefälschte Videos von Ärzten können für Betrügereien genutzt werden – etwa um dubious Gesundheitsprodukte zu bewerben, fragwürdige Therapien zu empfehlen oder Patienten zu täuschen. Der Vertrauensbonus, den ein Arzt in der Öffentlichkeit genießt, macht solche Fälschungen besonders gefährlich.

Die wichtigsten Fakten

  • Ausweitung auf unbekannte Ärzte: Während früher vor allem prominente Mediziner wie Eckart von Hirschhausen zum Ziel von Deepfake-Betrügern wurden, erstellen Kriminelle nun auch Videos mit Aufnahmen von weniger bekannten Ärzten.
  • Warnung der Bundesärztekammer: Die Standesorganisation der deutschen Ärzte hat auf die wachsende Problematik hingewiesen und warnt ihre Mitglieder vor dieser Form der Identitätsmanipulation.
  • Systemisches Problem: Die Ausbreitung auf unbekannte Ärzte deutet darauf hin, dass es sich nicht um gezielte Einzelattacken handelt, sondern um eine breitere Strategie, bei der Betrüger gezielt das Vertrauen in ärztliche Expertise ausnutzen.
  • Technologische Barrieren fallen: Die sinkenden Hürden für die Erstellung von Deepfakes machen es für Kriminelle einfacher, in großem Stil täuschend echte Videos herzustellen.
  • Herausforderung für Identitätsschutz: Besonders problematisch ist, dass auch völlig unbekannte Ärzte nicht vor Missbrauch ihrer Identität gefeit sind – sie können zur Täuschung von Patienten herangezogen werden, ohne davon zu wissen.

Gefahr für Patienten und Vertrauen in die Medizin

Die Verbreitung gefälschter Ärzte-Videos stellt eine vielfältige Gefahr dar. Zum einen können Patienten durch solche Inhalte zu schädlichen Handlungen bewogen werden – etwa zur Einnahme von Betrügerprodukten, zur Aufgabe seriöser Therapien oder zum Vertrauen auf unwirksame Behandlungen. Zum anderen wird das ohnehin angespannte Vertrauen in medizinische Expertise weiter untergraben. Wenn Menschen nicht mehr sicher sein können, ob ein Video eines Arztes echt ist oder nicht, kann dies zu generalisierter Skepsis gegenüber ärztlichen Empfehlungen führen – auch gegenüber echten.

Besonders perfide ist die Tatsache, dass Betrüger nicht nur bekannte Gesichter missbrauchen müssen. Unbekannte Ärzte bieten sogar Vorteile: Sie haben weniger öffentliche Aufmerksamkeit und weniger Möglichkeiten, schnell gegen Fälschungen vorzugehen. Ein erfundener „Dr. Müller" aus einer Regional-Klinik kann möglicherweise monatelang existieren, bevor der Betrug aufgedeckt wird.

Rechtliche und technische Herausforderungen

Die Strafverfolgung und Prävention von Deepfake-Betrug ist komplex. Während die Erstellung und Verbreitung solcher Inhalte unter bestimmten Umständen strafbar sein kann, müssen Ermittler zunächst nachweisen, dass ein Video manipuliert wurde. Dies erfordert spezialisierte technische Expertise und nimmt Zeit in Anspruch – Zeit, die Betrüger oft nutzen, um ihre Inhalte zu monetarisieren oder auszubreiten.

Auf technischer Seite arbeiten Sicherheitsexperten an Lösungen zur Erkennung von Deepfakes. Es gibt bereits Technologien, die manipulierte Videos identifizieren können, doch bei schnell fortschreitender KI-Entwicklung bleibt dies ein Wettrüsten zwischen Betrugsbekämpfung und Betrugsförderung.

Ausblick

Die Warnung der Bundesärztekammer ist ein wichtiges Signal an Ärzte und die Öffentlichkeit. Es ist zu erwarten, dass sich das Problem weiter verschärft, solange die technischen Hürden für Deepfake-Erstellung sinken und der potenzielle finanzielle Gewinn hoch bleibt. Notwendig sind daher mehrgleisige Ansätze: strengere rechtliche Regelungen, bessere technische Erkennungsmethoden, Aufklärung der Bevölkerung über das Problem sowie Zusammenarbeit zwischen Behörden, Plattformbetreibern und der Medizinbranche.

Für Patienten ist es wichtig zu verstehen, dass ein Video allein nicht ausreicht, um medizinische Informationen zu verifizieren. Wer medizinische Ratschläge befolgen möchte, sollte diese stets mit einem echten Arzt besprechen und bei ungewöhnlichen Empfehlungen kritisch nachfragen.

Quellen: Golem.de, Bundesärztekammer
Z
ZenNews24 Redaktion
Redaktion

Die ZenNews24-Redaktion berichtet rund um die Uhr über die wichtigsten Ereignisse aus Deutschland und der Welt. Unsere Journalistinnen und Journalisten recherchieren, analysieren und ordnen ein — unabhängig und verlässlich.

Quelle: Golem
Themen: KI Künstliche Intelligenz Mobilität ChatGPT Außenpolitik Umwelt Bundesliga USA CDU Bilanz Bayern Kosten Bundesregierung Ukraine Koalition SPD Druck Milliarden Rekord Boom Prozent Russland Trump Champions League