Zu gefährlich für die Welt? Diese neue KI-Software von Microsoft ist (noch) im Giftschrank
Eine neue KI-Anwendung von Microsoft erzeugt täuschend echte Fake-Videos. Deswegen hat der Hersteller das Programm bislang nicht öffentlich gemacht.
Redmond – Die nächste bahnbrechende KI-Anwendung ist da. Microsoft hat jetzt seine neue Software VASA-1 präsentiert, die es ermöglicht, Videos von sprechenden Personen aus einem einzigen Standbild, einer Audioaufnahme und einem Textskript zu erstellen. Der US-Konzern betont, dass diese Technologie aufgrund ihrer Gefahren aktuell nicht öffentlich zugänglich gemacht wird. IPPEN.MEDIA verrät, was dahintersteckt.
VASA-1 von Microsoft: KI erzeugt gespenstisch echt wirkende Videos
Was kann VASA-1? Die neueste Künstliche Intelligenz schafft es, Personen so als Video zu animieren, dass sie einen vorgegebenen Text mit ihrer nachgebildeten Stimme sprechen – und das absolut überzeugend und glaubwürdig, einschließlich Emotionen und Augenbewegungen. Aus einem einzigen Foto und einem Sprachschnipsel wird so ein gespenstisch echt wirkendes Video beispielsweise eines Politikers, der eine Rede hält. Damit sorgt VASA-1 für den nächsten und höchst beunruhigenden Schritt in Sachen KI.
Microsoft zeigt nur Demos seiner „sprechenden Gesichter“
Warum bleibt die Software unter Verschluss? Microsoft zeigt zwar Demos seiner „sprechenden Gesichter“, gibt das Programm aber nicht zur öffentlichen Nutzung frei. Hintergrund: Diese Art von KI-generierten Videos wird von der US-Behörde Federal Trade Commission (FTC) als potenziell gefährlich eingestuft, aufgrund von Betrugsversuchen durch Imitation und Deepfakes, also von mutwillig gefälschten Videos. Microsoft erkennt diese ethischen Bedenken an.
Hätte man das Programm gar nicht entwickeln dürfen? Hier gilt leider, dass alles technisch Machbare eben auch realisiert wird. Zudem können Programme wie VASA-1 durchaus großen Nutzen haben. Menschen mit kommunikativen Beeinträchtigungen können sich damit wieder ausdrücken. Und es gibt neue Möglichkeiten fürs Lernen, bei Videopräsentationen oder durch „virtuelle Ärzte“ im Gesundheitswesen.

Große Sorge wegen Auswirkungen von KI-generierten Fake-Videos
Wie groß sind die Gefahren? Es gibt durchaus ernste Bedenken. Der österreichische Nachrichtensprecher Armin Wolf hat beispielsweise bestürzt auf die ersten Beispiele von VASA-1 reagiert: „Es wird immer realitätsnäher. Ich glaube, wir haben alle noch keine Vorstellung von den gesellschaftlichen Auswirkungen dieser KI-generierten Fake-Videos. Niemand wird mehr sagen können, was noch echt ist und was nicht.“
Meine news
Wenn zum Beispiel auf TikTok gefälschte Videos deutscher Politiker in Umlauf gebracht werden würden, würden viele diese Clips wohl für echt halten. Der KI-Experte Rijul Gupta warnt, dass solche Deepfakes die gemeinsame Wahrnehmung der Realität bedrohen. Dies führe zu einem Klima der Unsicherheit und Skepsis, in dem Bürger die Wahrhaftigkeit jeder Information infrage stellen.
Die KI-Entwickler werden immer schneller sein als die Gesetzgeber
Hält das Verbot? Der KI-Experte Kevin Surace fürchtet, dass der enorme Konkurrenzkampf im Bereich KI dafür sorgt, dass solche Programme am Ende eben doch auf den Markt kommen: „Microsoft und andere halten sich vorerst noch zurück, bis sie die Fragen des Datenschutzes und der Nutzung geklärt haben. Aber wie will man regeln, wer das aus den richtigen Gründen nutzt?“ Aktuell versucht die Politik weltweit, drastische Strafen für die Verbreitung solcher Deepfake-Videos einzuführen. Doch am Ende dürften die KI-Entwickler immer schneller sein als die Gesetzgeber.
Symmetrie der Ohren und verirrte Haarsträhnen: So können Sie KI-generierte Bilder leicht erkennen