Sveučilište u Chicagu nudi Glaze i Nightshade umjetnicima kao obranu protiv AI

Image by Glashier, from Freepik

Sveučilište u Chicagu nudi Glaze i Nightshade umjetnicima kao obranu protiv AI

Vrijeme čitanja: 3 minuta

U žurbi? Evo brzih činjenica!

  • Glaze i Nightshade štite radove umjetnika od neovlaštene uporabe u AI treningu.
  • Glaze maskira slike kako bi spriječio AI u repliciranju umjetnikovog stila.
  • Nightshade ometa AI dodavanjem “otrovanih” piksela koji kvariti podatke za trening.

Umjetnici se bore protiv iskorištavajućih AI modela koristeći Glaze i Nightshade, dva alata koja je razvio Ben Zhao i njegov tim na Sveučilištu u Chicagu, u SAND Labu, kako je danas izvijestio MIT Technology Review.

Ovi alati imaju za cilj zaštititi rad umjetnika od korištenja bez pristanka za treniranje AI modela, praksu koju mnogi kreatori smatraju krađom. Glaze, preuzet više od 4 milijuna puta od svog izdanja u ožujku 2023., maskira slike dodavanjem suptilnih promjena koje sprječavaju AI da uči stil umjetnika, kaže MIT.

Pomoću “napadačke” suprotnosti, Nightshade, daljnje poremećaje unose nevidljive promjene koje mogu pokvariti učenje AI modela ako se koriste u treningu, kako je MIT primijetio.

Ovi alati su inspirirani zabrinutošću umjetnika o brzom rastu generativne AI, koja se često oslanja na online slike kako bi stvorila nova djela. MIT izvještava da su fantasy ilustratorica Karla Ortiz i drugi kreatori izrazili strah od gubitka svojih izvora prihoda budući da AI modeli repliciraju njihove jedinstvene stilove bez dozvole ili plaćanja.

Za umjetnike, objavljivanje na internetu je esencijalno za vidljivost i prihode, no mnogi su razmišljali o uklanjanju svojih djela kako bi izbjegli da se koriste za treniranje AI, čin koji bi otežao njihove karijere, kako je primijetio MIT.

Nightshade, pokrenut godinu dana nakon Glaze, pruža agresivniju obranu, izvještava MIT. Dodavanjem “otrovanih” piksela slikama, on ometa treniranje AI, uzrokujući da modeli proizvode iskrivljene rezultate ako se ove slike skeniraju.

Simbolički učinak velebilja odjeknuo je među umjetnicima, koji ga vide kao poetsku pravdu: ako njihova djela budu ukradena za AI trening, mogu oštetiti upravo one sustave koji ih iskorištavaju.

MIT tvrdi da su alati naišli na nešto skepse, budući da su umjetnici na početku bili zabrinuti za privatnost podataka. Kako bi se ovo riješilo, SAND Lab je izdao verziju Glazea koja radi offline, osiguravajući da nema prijenosa podataka i gradeći povjerenje s umjetnicima koji se boje iskorištavanja.

Laboratorij je nedavno proširio pristup suradnjom s Carom, novom društvenom platformom koja zabranjuje sadržaj generiran umjetnom inteligencijom, kako je primijetio MIT.

Zhao i njegov tim imaju za cilj promijeniti dinamiku moći između individualnih kreatora i tvrtki za umjetnu inteligenciju.

Nudeći alate koji štite kreativnost od velikih korporacija, Zhao se nada osnažiti umjetnike da zadrže kontrolu nad svojim radom i predefiniraju etičke standarde oko AI i intelektualnog vlasništva, kaže MIT.

Napor dobiva na zamahu, ali neki stručnjaci upozoravaju da alati možda ne nude potpunu zaštitu, budući da hakeri i AI developeri istražuju načine za zaobilaženje ovih zaštitnih mjera, kako je istaknuo MIT.

Sada kada su Glaze i Nightshade dostupni besplatno, Zhaoov SAND Lab nastavlja predvoditi borbu za obranu umjetničkog integriteta protiv rastućeg utjecaja stvaranja sadržaja vođenog AI-jem.

Svidio vam se ovaj članak? Ocijenite ga!
Nije mi se uopće svidjelo Baš mi se i nije svidjelo U redu je Poprilično je dobro! Oduševilo me!

Drago nam je da vam se svidio naš rad!

Kao naš cijenjeni čitatelj, biste li nas pohvalili na Trustpilotu? Kratko je i puno nam znači. Hvala što ste sjajni!

Ocijenite nas na Trustpilotu
0 Ocijenilo 0 korisnika
Naslov
Komentiraj
Zahvaljujemo na povratnoj informaciji
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Ostavite komentar

Loader
Loader Prikaži više...