Prije nekoliko mjeseci, 28-godišnji izvršni direktor Scale AI Alexandr Wang napravio je naslovnice nakon svoje kompanije, nakon divno uspješne runde financiranja koja je uključivala Meta, Amazon i Microsoft.
The World of AI Data
Tehničke kompanije profitiraju od podataka gotovo od svog osnivanja; međutim, nova prevalencija AI alata rezultirala je neviđenom novom potražnjom za podacima. Da bismo objasnili ovaj zahtev, upotrijebimo analogiju olovke i inka: olovka bez olovke ne bi mogla da se izrazi na papiru, kao što je slučaj s bocom olovke bez olovke. Isto tako, AI proizvod poput ChatGPT, Claude i Gemini je pažljiva kombinacija podataka o obuci i arhitekture – obično model u stilu Transformera – koji omogućava izražavanje podataka u upotrebljiv oblik.
Velika količina podataka je neophodna za obuku modernih velikih jezičnih modela (ChatGPT 4o, istaknuti LLM, procjenjuje se da ima oko__1,8 milijardi ulaznih parametara__), i tako general-use AI kompanije pretvorio u najveći open-source repozitorij jezičnih podataka u ljudskoj istoriji – internet. Osim što su obučeni na uzorcima teksta i slika izvađenih iz svakog web sajta zamišljen, state-of-the-art LLM se stalno hraniti više podataka iz
Why Humans?
Nije iznenađujuće, u velikim skupovima podataka, razne štetne sadržaje koji pokreću raspon od seksualno eksplicitnog materijala do govora mržnje se suprotstavljaju zdravim, obrazovnim podacima o obuci, kao što je bio slučaj sa podskupom internetskih podataka koji se koriste za obuku većine modernih LLM chatbotova.
U tehničkom smislu, RLHF se ne razlikuje od standardnih algoritama Machine Learning Reinforcement Learning: duboka mreža se koristi za dodjelu rezultata odgovorima generisanim od strane AI-a na osnovu stvarnih, ljudskih podataka, dok se AI ponavlja da generira odgovore koji se zatim unose u ovu duboku mrežu, efikasno ga klasificirajući po tome koliko je štetan odgovor. Izlazak koji se smatra sličnim ljudima označenim „štetnim“ podacima negativno će uticati na tendenciju modela da generira nešto slično u budućnosti, dok će izlazak koji se smatra različitim od gore navedenih podataka dati modelu sklonost da generira takve izlaze kada je potaknut pod sličnim uslovima (Ako ste zainteresovani, preporučujem da provjerite.
The Issue?
Umjesto toga, model RLHF koji navodno čini AI bezbednim i benignim uvelike ovisi o stotinama hiljada isplaćenih radnika, od kojih većina doprinose neprocjenjivim uslugama označavanja podataka putem online platformi „cloudwork“. Većina tih platformi slijedi format „requester i contractor“, u kojem su mnoštvo online radnika dodeljeno jednom zadatku, primajući platu po završetku onoga što zadatak predviđa, od označavanja sadržaja slike ili videa do bušenja zidova teksta za moguće ključne reči ili kontekste. Ovi radnici su neprocjenjivi doprinosi sigurnosti AI-a kao što to znamo – razlog zašto je javno objavljena AI poznata po tome što je prosperirajući izvori informacija izuzeti od povremenog vitrioluda i surovosti
- Niti jedna od spomenutih platformi nema mehanizme ili politike koje osiguravaju da izvođači primaju plaćanje od podnositelja zahtjeva za završen zadatke.
- Samo jedna od spomenutih platformi (Appen) ima politike koje osiguravaju QoL radnika kroz ublažavanje prekomjernog rada.
- Nijedna od spomenutih platformi nema jasne i lako tumačene ugovore koji propisuju uvjete za plaćanje i rad.
- Niti jedna od spomenutih platformi nije pokazala da uzima povratne informacije izvođača pri donošenju izvršnih odluka.
- Samo jedna od spomenutih platformi (Appen) ima politike koje priznaju pravo radnika na udruživanje (unijalizovanje).
Real People, Real Impact
Te osobe, često očajnički zaraditi malo dodatnih prihoda kako bi podržali svoju porodicu, provode satima ispred svog računala svaki dan, prolaze kroz menialne i ponavljajuće zadatke označavanja podataka, često se susreću s najgorim načinima ljudske depravnosti.
Kao izvođači, radnici nisu zaštićeni zakonima o plaćama i, u mnogim slučajevima, nisu plaćeni za prekovremeni rad. Daljinski zadatci postavljaju granicu na maksimalni broj sati rada za koje je učesnik plaćen, a platforma dodjeljuje zadatke nakon dugog procesa „kvalifikacije“ za koji potencijalni zadataknik nije plaćen. Ugovori su slabo i često dvosmisleno napisani, omogućujući mnogim zlostavljanjima radnika da prođu neopaženo.
Stotine hiljada ljudi svakodnevno radi na označivanju podataka o AI-u, ali njihova frustracija slučajno je potisnuta lošom podrškom korisnicima i nedostatkom platforme.
Slučajno, Remotasks, jedna od najvećih takvih tvrtki za označavanje podataka o AI-u, ključna je subvencija u Scale AI-u koja pruža označene podatke o obuci kao dio usluga za izgradnju AI kompanije. Službeno uspostavljena kako bi "očuvala poverljivost korisnika", ovo razdvajanje pokušava prikriti neke od manje ukusnih poslovnih praksi velike kompanije od javnog oka; u stvari, kada se uzme u obzir da je Remotasks postigao samo 1/10 na Fairwork-ovoj fer radnoj skali, a 10/10 je "minimalni zahtjev za pošteno radno okruženje", sigurno postoji mnogo toga o Scale-ovom zlostavljanju radnika koji podržavaju AI proizvode kroz njihov naporan rad.
This article is brought to you by Our AI, a student-founded and student-led AI Ethics organization seeking to diversify perspectives in AI beyond what is typically discussed in modern media. If you enjoyed this article, please check out our monthly publications and exclusive articles at https://www.our-ai.org/ai-nexus/read!
Ovaj članak vam donosi Naša AI, studentsko-osnovana i studentsko vođena organizacija za etiku AI koja nastoji diversifikovati perspektive u AI izvan onoga što se obično raspravlja u modernim medijima.https://www.our-ai.org/ai-nexus/read!
Raise Awareness
RLHF je dobra stvar učinjena na sve pogrešne načine. Kao snažan zagovornik razvoja AI-a usmjerenog na ljude, tvrdim da su trenutni standardi i politike nedovoljni kako bi se osiguralo da naše tehnologije ne negativno i nespretno utječu na naše čovječanstvo. Ako vam je dovoljno stalo do odgovornog i sigurnog razvoja AI-a, ne samo za Silicijsku dolinu, već za čovječanstvo u cjelini, snažno vas ohrabrujem da širite svijest o kršenjima radničkih prava u industriji AI-a – bilo da dijelite ovaj članak ili radite vlastita istraživanja – i podržavate odluke politike koje štite pravo radnika na poštenu platu i zastupljenost na radnom mjestu.
Svijet zaslužuje da zna – i vi biste trebali igrati svoj deo.
Redatelj: Thomas Yin