Omogućuje stvaranje uvjerljivih lažnih videozapisa na temelju fotografija i videozapisa, što može imati ozbiljne posljedice. Ova tehnologija stvara zabrinutost jer često čini teško razlikovati istinu od laži, piše financa.
Napredak deepfake tehnologije postao je još impresivniji, smanjujući potrebu za obiljem izvornog materijala potrebnog za stvaranje uvjerljivih lažnih videa. Microsoftov istraživački odjel iz Azije razvio je eksperimentalni alat nazvan VASA-1. Ovaj alat omogućuje generiranje deepfake videozapisa samo na temelju jedne fotografije ili crteža lica osobe. Ovaj alat koristi dostupne audio datoteke i sličice lica kako bi stvorio realistične videozapise, prikazujući osobe kako govore s prirodnim izrazima lica. Primjeri videa objavljeni od strane istraživača pokazuju impresivnu kvalitetu. Što može lako prevariti ljude i narušiti povjerenje u autentičnost videa.
Microsoft je odlučio da neće javno dostupno staviti ovaj alat zbog mogućih rizika koje nosi.
Mogući problemi
Očigledno je da bi ovakva tehnologija, u rukama pojedinaca s lošim namjerama, mogla izazvati brojne probleme. S toga su svjesni i u Microsoftu. Te su odlučili da neće javno objaviti demo verziju ili konačan proizvod, niti dopustiti drugima da razvijaju vlastite proizvode temeljene na njihovoj tehnologiji. Ovaj potez je napravljen kako bi se osiguralo da se njihova tehnologija koristi odgovorno i u skladu s prikladnom regulativom. A to će biti prioritet prije nego što se učini dostupnom široj javnosti.
Engadget je istaknuo da još nije poznato hoće li Microsoft implementirati dodatne sigurnosne mjere u svoju tehnologiju kako bi spriječio njezinu zlouporabu.
Iako je ovaj alat prvotno treniran na fotografijama stvarnih (poznatih) osoba, pokazao se iznimno uspješan i u obradi umjetničkih slika. Jedan od primjera je oživljavanje Mona Lise koja je zapjevala, odnosno izrecitirala dio pjesme “Paparazzi” uz glas Anne Hathaway.