Išmanioji vaizdo klastotė

Straipsnis iš Vikipedijos, laisvosios enciklopedijos.
Vaizdo klastotė, kurioje asmuo, apsimetantis Vladimiru Putinu, perspėja Jungtinių Valstijų gyventojus dėl kišimosi į rinkimus ir didėjančios politinės priešpriešos.

Išmanioji vaizdo klastotė, sintetinė vaizdo klastotė[1] (angl. deepfake; deep learning – „giluminis mokymasis“ + fake – „klastotė“[2]) – personalizuotos medijos kūrinys,[3] kuriame nuotraukoje ar vaizdo įraše esančiam asmeniui dirbtinio intelekto pagalba suteikiamas kito asmens balsas arba veido bruožai. Nors panašaus suklastoto turinio gamyba ir nėra naujas reiškinys, išmaniosios vaizdo klastotės išsiskiria savo realistiškumu, mat pasitelkiamas mašininis mokymasis ir dirbtinis intelektas neretai siekiant manipuliuoti ar apgauti.[4] Pagrindiniai mašininio mokymosi metodai šioms klastotėms sukurti yra pagrįsti giluminio mokymosi technologija, kur taikomos dirbtinio neuroninio tinklo sistemos, tokios kaip automatiniai kodavimo įrenginiai[4] arba generatyvinis priešininkų tinklas (GAN).[5][6]

Išmaniosios klastotės susilaukė nemažai dėmesio dėl potencialaus jų panaudojimo kuriant turinį, kuriame būtų vaizduojami lytiškai išnaudojami vaikai ar įžymybės, kerštaujama, tyčiojamasi, pateikiamos iškreiptos ar melagingos naujienos, finansinės machinacijos.[7][8][9][10] Šie iššūkiai daugelyje šalių paskatino atsakingą verslą bei valdžios institucijas imtis atitinkamų ribojimų.[11][12]

Technikos[redaguoti | redaguoti vikitekstą]

Išmaniosios vaizdo klastotės yra dirbtinio neuroninio tinklo tipas, kuris vadinamas automatiniu kodavimo įrenginiu.[13][14] Pastaruosius sudaro kodavimo įrenginys, paverčiantis vaizdą į žemesnio matmens latentinę erdvę, bei dekoderis, kuris atkuria vaizdo pirminę formą.[15] Šios vaizdo klastotės panaudoja minėtus įrankius kartu taikydamos ir universalųjį kodavimo įrenginį, kuris norimą asmenį perkelią į sukurtą latentinę erdvę.[16] Latentinė erdvė pasižymi keliais esminiais ypatumais, susijusiais su asmens veido bruožais bei laikysena. Jiems išspręsti yra taikomas dekoderis su konkrečiai užduočiai apmokytu modeliu[13] – numatyto taikinio informacija yra pritaikoma asmeniui, matomam originalioje nuotraukoje arba įraše.[13]

Tam, jog rezultatas būtų kuo realistiškesnis, naudojamas ir generatyvinis priešininkų tinklas (GAN).[16] GAN apmoko generatorių – šiuo atveju, dekoderį – bei diskriminatorių.[16] Po to generatorius, vadovaudamasis latentinės erdvės pateikiama medžiaga, sukuria naujus vaizdus, tuo tarpu diskriminatorius įvertina, ar rodomas vaizdas yra generuojamas ir šalina bet kokius atsiradusius vaizdo defektus.[17] Dėl šios priežasties generatorius sugeba sukurti vaizdus, kurie itin gerai atvaizduoja realybę.[17] Abu algoritmai nuolatos tobulėja nulinės sumos žaidimo pagrindu.[16]

Išnašos[redaguoti | redaguoti vikitekstą]

  1. „Kaip versti angl. „deepfake“?“ Archyvuota kopija 2022-10-17 iš Wayback Machine projekto.VLKK.
  2. Brandon, John (2018-02-16). „Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise“. Fox News (amerikiečių anglų). Suarchyvuota iš originalo 15 June 2018. Nuoroda tikrinta 2018-02-20.
  3. „Prepare, Don't Panic: Synthetic Media and Deepfakes“. witness.org. Suarchyvuota iš originalo 2 December 2020. Nuoroda tikrinta 25 November 2020.
  4. 4,0 4,1 Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). „Deepfakes: Trick or treat?“. Business Horizons. 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006. S2CID 213818098.
  5. Schwartz, Oscar (12 November 2018). „You thought fake news was bad? Deep fakes are where truth goes to die“. The Guardian (anglų). Suarchyvuota iš originalo 16 June 2019. Nuoroda tikrinta 14 November 2018.
  6. Charleer, Sven (2019-05-17). „Family fun with deepfakes. Or how I got my wife onto the Tonight Show“. Medium (anglų). Suarchyvuota iš originalo 11 February 2018. Nuoroda tikrinta 2019-11-08.
  7. „What Are Deepfakes & Why the Future of Porn is Terrifying“. Highsnobiety (amerikiečių anglų). 2018-02-20. Suarchyvuota iš originalo 14 July 2021. Nuoroda tikrinta 2018-02-20.
  8. „Experts fear face swapping tech could start an international showdown“. The Outline (anglų). Suarchyvuota iš originalo 16 January 2020. Nuoroda tikrinta 2018-02-28.
  9. Roose, Kevin (2018-03-04). „Here Come the Fake Videos, Too“. The New York Times (amerikiečių anglų). ISSN 0362-4331. Suarchyvuota iš originalo 18 June 2019. Nuoroda tikrinta 2018-03-24.
  10. Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damian (October 2019). „Adversarial Learning of Deepfakes in Accounting“ (anglų). arXiv:1910.03810 [cs.LG].
  11. Ghoshal, Abhimanyu (2018-02-07). „Twitter, Pornhub and other platforms ban AI-generated celebrity porn“. The Next Web (amerikiečių anglų). Suarchyvuota iš originalo 20 December 2019. Nuoroda tikrinta 2019-11-09.
  12. Clarke, Yvette D. (2019-06-28). „H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019“. www.congress.gov. Suarchyvuota iš originalo 17 December 2019. Nuoroda tikrinta 2019-10-16.
  13. 13,0 13,1 13,2 Charleer, Sven (2019-05-17). „Family fun with deepfakes. Or how I got my wife onto the Tonight Show“. Medium (anglų). Suarchyvuota iš originalo 11 February 2018. Nuoroda tikrinta 2019-11-08.
  14. Zucconi, Alan (2018-03-14). „Understanding the Technology Behind DeepFakes“. Alan Zucconi (amerikiečių anglų). Suarchyvuota iš originalo 1 November 2019. Nuoroda tikrinta 2019-11-08.
  15. „What is a Deepfake?“. Blog - Synthesys (amerikiečių anglų). 2022-05-03. Suarchyvuotas originalas 2022-06-26. Nuoroda tikrinta 2022-05-17.
  16. 16,0 16,1 16,2 16,3 Kan, C. E. (2018-12-10). „What The Heck Are VAE-GANs?“. Medium (anglų). Suarchyvuota iš originalo 14 July 2021. Nuoroda tikrinta 2019-11-08.
  17. 17,0 17,1 „These New Tricks Can Outsmart Deepfake Videos—for Now“. Wired (anglų). ISSN 1059-1028. Suarchyvuota iš originalo 3 October 2019. Nuoroda tikrinta 2019-11-09.