Deepfakes – Täuschend echt. Brandgefährlich.
Pietro Maniscalco
06.August, 2025
KI kann heute fast alles – auch dich täuschen.
Immer öfter berichten Unternehmen von Fake-Anrufen, in denen sich jemand als Geschäftsführer oder Mitarbeitender ausgibt. Und das nicht mit schlecht nachgemachter Stimme, sondern per täuschend echter Deepfake-Technologie.
„Deepfakes sind durch KI generierte Audios, Videos oder Bilder, die kaum von echten Inhalten zu unterscheiden sind.“
Der Fall, der alles veränderte:
Ein Mitarbeiter in Hongkong erhielt einen Videoanruf vom „Chef“ – mit Stimme, Bild und Mimik. Der Auftrag: 23 Millionen Euro überweisen. Was er nicht wusste: Alle Personen im Call waren Deepfakes.
„Der Schaden? 23 Millionen. Die Erkenntnis? Kein Call ist mehr 100% sicher.”
Die größten Risiken für dein Unternehmen:
CEO-Fraud 2.0 – per Stimme oder Video
Gefälschte Bewerber:innen in Vorstellungsgesprächen
Vertrauensverlust bei Kunden & Partnern
Manipulierte Videobeweise bei internen Vorgängen
5 Maßnahmen, die du sofort umsetzen kannst:
Team sensibilisieren
Informiere dein Team über Deepfake-Bedrohungen. Was ist technisch möglich? Was ist realistisch?Verbindliche Prozesse etablieren
Kein Freigabeprozess ohne schriftliche Bestätigung – gerade bei Zahlungen oder sensiblen Entscheidungen.Das Vier-Augen-Prinzip fest verankern
Besonders bei Überweisungen oder datenschutzrelevanten Freigaben.Technik clever einsetzen
Nutze Tools zur Deepfake-Erkennung oder biometrische Bestätigung (z. B. Face ID, 2FA).Notfall-Kommunikationsplan aufsetzen
Wer informiert wen? Wie gehen wir intern und extern mit einem Vorfall um?
Fazit
Deepfakes verändern die Spielregeln – doch mit Wissen, klaren Prozessen und smarter Technik kannst du dich und dein Unternehmen schützen.
„Wenn eine Stimme vertraut klingt, heißt das noch lange nicht, dass du ihr trauen kannst.“
Unsere Empfehlung: Geben Sie diese Tipps auch an Ihre Kolleginnen und Kollegen weiter. #
Bei Fragen oder Beratungsbedarf rund ums Thema „Deepfake“ stehen wir Ihnen jederzeit gern zur Seite.