AI-generisane slike ekstremnog siromaštva, djece i preživjelih seksualnog nasilja preplavile su stranice sa stok fotografijama i sve ih češće koriste vodeće zdravstvene nevladine organizacije, upozoravaju stručnjaci iz oblasti globalnog zdravlja koji izražavaju zabrinutost zbog nove ere “pornografije siromaštva”.
„Koriste ih svi i svuda“, rekao je Noah Arnold iz švicarske organizacije Fairpicture, koja se zalaže za etičku upotrebu slika u globalnom razvoju. „Neki ih već aktivno koriste, a znamo da drugi barem eksperimentiraju s njima.“
Arsenii Alenichev, istraživač s Instituta za tropsku medicinu u Antwerpenu koji proučava nastanak vizualnih prikaza globalnog zdravlja, objašnjava: „Te slike ponavljaju vizualnu gramatiku siromaštva – djeca s praznim tanjirima, ispucala zemlja, stereotipne scene.“
Alenichev je prikupio više od stotinu AI-generisanih slika ekstremnog siromaštva koje pojedinci ili nevladine organizacije koriste u kampanjama protiv gladi ili seksualnog nasilja. Fotografije koje je podijelio s Guardianom prikazuju prenaglašene, stereotipne prizore: djecu skupljenu u mutnoj vodi; afričku djevojčicu u vjenčanici s tragom suze na obrazu. U autorskom tekstu objavljenom u Lancet Global Health, Alenichev tvrdi da te slike predstavljaju “pornografiju siromaštva 2.0”.
Iako je teško precizno utvrditi obim upotrebe AI-slika, Alenichev i drugi stručnjaci smatraju da njihova popularnost naglo raste, potaknuta zabrinutošću zbog pristanka osoba na snimanje i smanjenim budžetima. Arnold ističe da su američka smanjenja finansiranja nevladinog sektora dodatno pogoršala situaciju.

„Sasvim je jasno da mnoge organizacije razmatraju korištenje sintetičkih slika umjesto stvarnih fotografija jer su jeftine i ne zahtijevaju saglasnost ili dodatnu administraciju,“ kaže Alenichev.
Danas se desetine AI-generisanih slika ekstremnog siromaštva mogu pronaći na popularnim platformama kao što su Adobe Stock Photos i Freepik. Uz pretragu pojma “poverty” pojavljuju se opisi poput: “Fotorealistično dijete u izbjegličkom kampu”, “Azijska djeca plivaju u rijeci punoj otpada”, “Bijeli volonter pruža medicinsku pomoć crnoj djeci u afričkom selu”. Adobe prodaje licence za posljednje dvije po cijeni od oko 60 funti.
„Te slike su toliko rasno obojene. Nikada ih nisu trebali ni objaviti jer predstavljaju najgore stereotipe o Africi, Indiji ili bilo kojem drugom mjestu,“ rekao je Alenichev.
Joaquín Abela, izvršni direktor Freepika, tvrdi da je odgovornost za korištenje takvih slika na korisnicima, a ne na platformama poput njegove. Objašnjava da AI-fotografije generira globalna zajednica korisnika, koji dobijaju naknadu kada njihove slike budu kupljene.
Freepik je, kaže, pokušao suzbiti pristrasnosti koje je uočio u drugim dijelovima svoje biblioteke „ubrizgavanjem raznolikosti“ – primjerice, nastojeći da fotografije advokata i direktora prikazuju uravnotežen omjer spolova.
„Ali to je kao da pokušavate osušiti okean. Trudimo se, ali ako kupci širom svijeta žele slike na određeni način, niko tu ništa ne može učiniti,“ rekao je Abela.
U prošlosti su neke vodeće humanitarne organizacije koristile AI-generisane slike u svojim komunikacijskim kampanjama. Plan International Netherlands, ogranak britanske organizacije, objavio je 2023. video protiv dječjih brakova koji sadrži AI-slika djevojčice s podlivom ispod oka, starijeg muškarca i trudne tinejdžerke.
Prošle godine, Ujedinjene nacije su na YouTubeu objavile video s AI-generisanim “rekonstrukcijama” seksualnog nasilja u sukobima, uključujući i AI-generisano svjedočanstvo žene iz Burundija o tome kako su je 1993. godine silovala trojica muškaraca i ostavila da umre tokom građanskog rata. Video je uklonjen nakon što je Guardian kontaktirao UN radi komentara.
Glasnogovornik UN Peacekeeping-a izjavio je: „Sporni video, koji je nastao prije više od godinu dana uz korištenje brzo napredujućih alata, uklonjen je jer smo procijenili da prikazuje neprimjerenu upotrebu umjetne inteligencije i može ugroziti integritet informacija, miješajući stvarne snimke i gotovo stvarno generisane sadržaje.
Ujedinjene nacije ostaju čvrsto posvećene podršci žrtvama seksualnog nasilja u sukobima, uključujući i putem inovacija i kreativnog zagovaranja.“
Arnold naglašava da sve češće korištenje ovih slika dolazi nakon višegodišnjih rasprava u sektoru o etičnom vizualnom predstavljanju siromaštva i nasilja. „Navodno je jednostavnije koristiti gotove AI-vizuale koji ne zahtijevaju saglasnost – jer to nisu stvarni ljudi.“
Kate Kardol, konsultantica za komunikacije u nevladinim organizacijama, kaže da je takve slike plaše i da je podsjećaju na ranije debate o „pornografiji siromaštva“.
„Tužno je što se borba za etičniji prikaz ljudi koji žive u siromaštvu sada proširila i na svijet koji nije stvaran,“ rekla je.
Generativni AI alati već dugo ponavljaju – i često pojačavaju – društvene predrasude. Proliferacija pristrasnih slika u komunikacijama globalnog zdravlja, upozorava Alenichev, može problem dodatno produbiti jer bi se takve slike mogle proširiti internetom i završiti kao materijal za obuku novih AI-modela – proces za koji je dokazano da umnožava predrasude.
Portparol Plan Internationala rekao je da je organizacija ove godine „usvojila smjernice koje savjetuju protiv korištenja AI-ja za prikaz pojedinačne djece“ te da je kampanja iz 2023. koristila AI slike kako bi se zaštitila „privatnost i dostojanstvo stvarnih djevojčica“.
Adobe je odbio komentarisati.