Wie funktioniert „Staying Alive“? Die Technik hinter den Toten-Duetten
Vier verstorbene, weltweit bekannte Musiklegenden. Dazu vier lebende Stars, großteils nur im deutschsprachigen Raum bekannt. Mit den Legenden verbindet sie nichts. Ach ja, und ein Bühnenformat, das viele postkapitalistisch-zynisch finden, ideen- und pietätlos zugleich: ProSieben hat am Samstagabend „Staying Alive – Stars singen mit Legenden“ gezeigt. Elvis Presley, Whitney Houston, Freddie Mercury und Amy Winehouse traten neben den No Angels, Álvaro Soler, Samu Haber und Sasha auf. Wie das genau funktioniert, will man nicht verraten.
Die offizielle Sprachregelung: „Cola-Rezept“, „eigene Technik“
Endemol Shine Germany spricht von „eigener Technik“. Joyn und Prisma firmieren das Verfahren offiziell als „KI-Avatare“. Mehr gibt der Sender nicht preis. Geschäftsführer Fabian Tobias erklärt gegenüber „DWDL“: „Es ist wie das Cola-Rezept – wir können und wollen den genauen Trick nicht verraten.“ Klar ist nur: Nichts entstand live. Die Aufzeichnung lief im Oktober 2025 in den MMC Studios Köln. Klar ist außerdem, dass das Studiopublikum die Avatare bereits während der Aufzeichnung sah. Tobias zu DWDL: Die Zuschauer hätten „die Transferleistung nicht erbringen“ müssen. Welche Lösung dahintersteckt, in welcher Reihenfolge Bild- und Tonebene entstehen, mit welcher Software, mit welchen Trainingsdaten – all das hält Endemol unter Verschluss.
Der ABBA-Vergleich hinkt deutlich
Der reflexhafte Vergleich zu „ABBA Voyage“ in London führt in die Irre. Bei den schwedischen Pop-Avataren in der eigens errichteten ABBA Arena handelt es sich um in Echtzeit projizierte 3D-Figuren. Die Grundlage: ausgiebige Motion-Capture-Sessions mit den heute knapp 80-jährigen ABBA-Mitgliedern. Björn, Benny, Agnetha und Anni-Frid sangen und spielten fünf Wochen lang in Performance-Capture-Anzügen vor 160 Kameras. Daraus modellierte Industrial Light & Magic die jüngeren Versionen ihrer selbst, die seit 2022 jeden Abend in London auftreten. Die ABBA-Avatare basieren also auf der echten Performance der echten Künstler. Nur eben optisch zurückversetzt in ihre Endsiebziger-Jahre.
Bei „Staying Alive“ greift dieses Prinzip naturgemäß nicht. Niemand kann mit Elvis ins Motion-Capture-Studio gehen. Niemand kann Amy Winehouse einen Performance-Capture-Anzug anlegen. Was bei ABBA lebendiger Performance-Transfer ist, entsteht bei den Verstorbenen rein synthetisch. Ohne Mitwirkung der Originale, ohne deren Zustimmung, ohne Kontrolle über das Ergebnis. Der Vergleich mit der Londoner Arena-Show greift nicht. ProSieben zeigte am Samstagabend eher ein aufwendig produziertes KI-Replikat als eine Hologramm-Konzert-Erfahrung.
Die ungelöste Rechtefrage
Wie entstanden die Stimmen der Verstorbenen? Auf diese Frage des „Münchner Merkur“ antwortet eine ProSieben-Sprecherin: „Modernste Technik machte es möglich, dass Elvis Presley ‚Daylight‘ singt oder Whitney Houston ‚Hollywood Hills‘. Das ist tatsächlich ein Experiment, aber genau das macht die Show so besonders und einzigartig.“ Auf die Anschlussfrage, ob ProSieben die Erben der Legenden um Erlaubnis bat, antwortet sie knapp: „Das war nicht nötig – aber es gab Kontakt.“ Was dieser Kontakt konkret beinhaltete, mit wem er stattfand, welche Rechte daran hingen – all das bleibt offen.
Wie es technisch funktionieren könnte
Auch wenn Endemol schweigt: Die Branchenwerkzeuge für so ein Format liegen offen herum. Stimmsynthese auf Basis archivierter Aufnahmen ist seit Jahren erprobte Filmpraxis. Für Val Kilmers Wiederkehr als „Iceman“ in „Top Gun: Maverick“ 2022 baute die Londoner KI-Firma Sonantic ein Stimmmodell aus stundenlangem Archivmaterial des Schauspielers, der nach einer Krebsoperation 2014 die Sprechfähigkeit verloren hatte, wie „Variety“ berichtete.
Sonantic generierte laut seinem damaligen CTO John Flynn „mehr als 40 verschiedene Voice-Modelle“ und wählte das überzeugendste aus; Spotify übernahm das Unternehmen wenige Wochen später, wie „Fortune“ dokumentierte. Im selben Jahr ließ Lucasfilm für die Disney+-Serie „Obi-Wan Kenobi“ die Stimme von Darth Vader durch das ukrainische Unternehmen Respeecher rekonstruieren – James Earl Jones, damals 91, hatte zuvor sein Stimmarchiv freigegeben und zog sich aus der Rolle zurück, wie „Vanity Fair“ zuerst und später „TechCrunch“ berichteten; das Verfahren basiert auf Speech-to-Speech-Machine-Learning.
Für das Bild ist Face-Replacement seit der digitalen Rekonstruktion der Schauspielerin Carrie Fisher und des bereits 1994 verstorbenen Peter Cushing in „Rogue One“ (2016) Hollywood-Standard – damals noch ein zweistelliger Millionenbetrag, inzwischen auch mit deutlich kleineren Budgets umsetzbar. Eine plausible Architektur für „Staying Alive“ wäre also: physischer Doppelgänger auf der Bühne, KI-generierter Kopf in der Postproduktion, KI-generierte Stimme aus der Konserve. Belegt ist davon im Fall der ProSieben-Show nichts. Ausschließen lässt sich aber auch nichts.