Digitale PR
Deepfake-PR: Gefahr oder Gamechanger für Marken?
„Man kann nichts mehr glauben.“ – Diesen Satz hört man immer häufiger, wenn es um künstlich generierte Inhalte geht. Deepfakes und Synthetic Media sorgen für Faszination und Verunsicherung zugleich. Während Fake News und Manipulationen Ängste schüren, experimentieren Unternehmen mit der Technologie, um ihre Markenkommunikation innovativer zu gestalten. Ist Synthetic Media also ein Branding-Albtraum oder eine neue Ära für PR-Profis?
Deepfakes sind längst mehr als manipulierte Politiker-Videos. Die Technologie nutzt Künstliche Intelligenz (KI), um realistisch aussehende Bilder, Videos und sogar Stimmen zu generieren.
Doch mit diesen neuen Möglichkeiten wächst auch die Verantwortung: Wo endet kreative Innovation – und wo beginnt bewusste Täuschung? Marken müssen sich fragen, ob sie durch den Einsatz von Deepfake-Technologie wirklich einen Mehrwert für ihre Zielgruppe schaffen oder ob sie sich auf riskantes Terrain begeben, das ihrer Reputation langfristig schaden könnte.
PR basiert auf Glaubwürdigkeit, Vertrauen und Transparenz. Wird KI-generiertes Material in der Markenkommunikation eingesetzt, ohne dies offenzulegen, droht ein potenziell großer Vertrauensverlust. Ein einmal verlorenes Vertrauen ist schwer wiederherzustellen – und in einer digitalen Welt, in der sich Inhalte rasend schnell verbreiten, kann ein einziger Fehler in der Nutzung von Synthetic Media einen dauerhaften Imageschaden hinterlassen.
Deepfakes werfen eine zentrale Frage auf: Kann eine Marke noch authentisch bleiben, wenn ihr Gesicht digital erzeugt wird? Verbraucher erwarten echte Erlebnisse und echte Menschen hinter Markenbotschaften. Zu viel Künstlichkeit könnte zu einer Entfremdung zwischen Marke und Konsument führen – vor allem in Zeiten, in denen Nahbarkeit und Vertrauenswürdigkeit zunehmend über Markenerfolg entscheiden.
Authentizität ist längst kein Buzzword mehr, sondern eine essenzielle Währung in der digitalen Kommunikation. Studien zeigen, dass Konsumenten zunehmend Marken bevorzugen, die echt, nahbar und transparent agieren. Ein Unternehmen, das sich hinter Deepfakes und KI-generierten Testimonials versteckt, könnte daher als künstlich, distanziert und unnahbar wahrgenommen werden.
Besonders in einer Zeit, in der Purpose-Driven-Branding und soziale Verantwortung zentrale Faktoren für den Unternehmenserfolg sind, müssen Marken sicherstellen, dass der Einsatz von Synthetic Media ihre Werte unterstützt – nicht untergräbt.
Doch selbst wenn Marken diese Prinzipien einhalten, bleibt ein Risiko: Sie haben keine Kontrolle darüber, wie die Technologie außerhalb ihres Einflussbereichs eingesetzt wird. Wird sie missbraucht, kann das Vertrauen in eine Marke schwer erschüttert werden.
Die Schattenseite: Wenn Deepfakes zur PR-Krise werden
Deepfakes stellen Marken vor eine neue Realität: Was echt erscheint, kann manipuliert sein. Ein gefälschtes CEO-Statement oder ein nicht autorisiertes Marken-Testimonial kann sich millionenfach verbreiten, bevor das Unternehmen überhaupt reagieren kann.
Noch problematischer: Es gibt kaum rechtliche Mittel, um Deepfake-Verleumdungen schnell aus dem Netz zu bekommen. Ist der Schaden erst da, hilft selbst die beste Krisenkommunikation nur bedingt. Unternehmen müssen daher proaktiv handeln, bevor sie zur Zielscheibe werden.
Prävention beginnt mit technologischer Früherkennung: KI-gestützte Tools können Deepfakes identifizieren, bevor sie viral gehen. Unternehmen, die in solche Erkennungssysteme investieren, können Bedrohungen frühzeitig aufdecken. Ebenso wichtig ist eine klare Krisenkommunikationsstrategie, die bei einem Angriff sofort greift – schnelle Verifikation, offizielle Stellungnahmen und enge Zusammenarbeit mit Medien und Plattformbetreibern sind entscheidend.
Doch der beste Schutz bleibt eine starke, authentische Markenidentität. Unternehmen, die konsequent auf transparente Kommunikation setzen und eine enge Verbindung zu ihrer Community aufbauen, erschweren es Manipulatoren, Zweifel zu säen. Zudem wächst der Druck auf Gesetzgeber, klare Regeln für KI-generierte Inhalte zu schaffen – Marken sollten diese Debatte aktiv mitgestalten, um sich langfristig abzusichern.
Chancen für Marken: Innovation mit Bedacht nutzen
Deepfakes sind weder per se gut noch schlecht – es kommt auf die Nutzung an. Verantwortungsbewusst eingesetzt, bieten sie neue kreative Möglichkeiten in der Markenkommunikation. Entscheidend ist, dass Unternehmen ihre Transparenz bewahren und das Vertrauen der Zielgruppe stärken, anstatt es zu gefährden.
Doch wie kann der verantwortungsvolle Einsatz konkret aussehen? Zwei erfolgreiche Kampagnen zeigen, wie Deepfake-Technologie Markenkommunikation bereichern kann:
- Interaktive Erlebnisse: Im Jahr 2018 führte Zalando eine Kampagne mit dem Model Cara Delevingne durch. Mithilfe von Deepfake-Technologie wurden über 60.000 personalisierte Videobotschaften erstellt, die spezifische Städte und Dörfer in Europa ansprachen. Die gezielte Verbreitung über soziale Medien führte zu über 180 Millionen Impressionen und einem Verkaufsanstieg von 54 %.
- Innovatives Storytelling: Der deutsche Bekleidungskonzern Trigema brachte 2024 seine bekannte Werbefigur, den Affen Charly, als KI-generierten Fashion-Influencer zurück. In der neuen Kampagne übernimmt der virtuelle Charly die Social-Media-Kanäle des Unternehmens, teilt seine Meinung zu Mode und aktuellen Ereignissen und repräsentiert die Werte der Marke wie 100 Prozent Made in Germany und Langlebigkeit.
Beide Kampagnen nutzen Deepfake-Technologie nicht zur Irreführung, sondern als kreatives Werkzeug: Zalando setzt auf personalisierte, aber klar erkennbare Videobotschaften, während Trigema eine fiktive Werbefigur wiederbelebt, ohne vorzugeben, dass sie real ist – so bleibt die Authentizität der Marken gewahrt.
Der entscheidende Faktor: Transparenz und Authentizität
Die Herausforderung für Marken liegt nicht in der Technologie selbst, sondern in ihrem verantwortungsvollen Einsatz. Deepfakes sind ein kreatives Werkzeug – aber nur, solange ihre Herkunft klar bleibt.
Letztendlich geht es nicht nur um einzelne Kampagnen, sondern um eine grundsätzliche Haltung gegenüber digitaler Verantwortung. Diese Haltung kann in drei Prinzipien kategorisiert werden:
- Offenlegung: Deepfake-generierte Inhalte sollten klar als solche gekennzeichnet sein – durch Wasserzeichen, begleitende Erklärungen oder interaktive Formate.
- Klarer Mehrwert: KI-generierte Inhalte sollten nicht allein aus Effizienzgründen genutzt werden, sondern immer einen echten inhaltlichen oder kreativen Mehrwert bieten.
- Richtlinien und Kontrolle: Unternehmen sollten interne Ethikrichtlinien für den Einsatz von Synthetic Media entwickeln, um sicherzustellen, dass die Technologie verantwortungsbewusst genutzt wird.
Deepfakes sind ein mächtiges Werkzeug – aber nur, wenn sie verantwortungsvoll und transparent eingesetzt werden. Marken, die diese Balance halten, können innovative Kommunikation gestalten, ohne ihre Glaubwürdigkeit zu riskieren.
Titelbild: offensichtlich erstellt mit KI (DallE) und zwei linken Händen 😉