Forum - Sprach-Deepfakes werden oft nicht erkannt

 
Katerchen

Mit künstlicher Intelligenz können Sprachaufnahmen so täuschend echt gefälscht werden, dass Menschen sie oft nicht von der echten Stimme einer Person unterscheiden können. Das zeigt eine neue Studie aus England. Auch Versuche, die Studienteilnehmerinnen und -teilnehmer darin zu schulen, diese Deepfakes zu erkennen, verbesserten die Ergebnisse kaum. (science.orf.at)

Dann darf man nur noch das glauben, was man vom Betreffenden persönlich gehört hat. Und das auch nicht immer.

Gefährlich ist das schon, wenn Reden von Politikern so täuschend echt gefälscht werden und den Sinn verändern. Es reichen schon drei Sekunden der Originalstimme, um mittels guter KI die Stimme nachzuahmen.

Raptor

Also wenn man eine Rede eines Politikers hört die Sinn ergibt dann weiss man sofort - FAKE!

Katerchen

Raptor, wo du Recht hast, hast du Recht. 🤣

Sinnvolles aus einem Politikermund muss ein Fake sein.

MaryLou

Die Politiker sind mir so ziemlich egal und auch was sie von sich geben. Da ist es manchmal gefährlicher wenn sie die eigene Intelligenz bemühen.

Also KI oder nicht.