650 čitanja
650 čitanja

Neizgovarajuća eksploatacija radnika iza velikih jezičnih modela

by Our AI7m2025/06/29
Read on Terminal Reader

Predugo; Citati

featured image - Neizgovarajuća eksploatacija radnika iza velikih jezičnih modela
Our AI HackerNoon profile picture
0-item

Prije nekoliko mjeseci, 28-godišnji izvršni direktor Scale AI Alexandr Wang napravio je naslovnice nakon svoje kompanije, nakon divno uspješne runde financiranja koja je uključivala Meta, Amazon i Microsoft.Više od 1 milijardu dolara u rizikovom kapitaluIako je Wangova priča o uspjehu dramatična – od 19-godišnjeg MIT-a do najmlađeg samostalno napravljenog milijardera na svetu – i dobro prijavljena, mnogo manje je rečeno o tome kako je njegova kompanija, ogromna kompanija za označivanje podataka, postala. Zahvaljujući satima istraživanja u institucijskim studijama i relativno nejasnim izvještajima, postao sam sve svjestan niza jednako dramatičnih preokreta u nedavnoj istoriji kompanije, jedne koja povezuje priče stotina hiljada ljudi i konačnu sudbinu našeg svijeta nakon revolucije AI.

Više od 1 milijardu dolara u rizikovom kapitalu

The World of AI Data

Tehničke kompanije profitiraju od podataka gotovo od svog osnivanja; međutim, nova prevalencija AI alata rezultirala je neviđenom novom potražnjom za podacima. Da bismo objasnili ovaj zahtev, upotrijebimo analogiju olovke i inka: olovka bez olovke ne bi mogla da se izrazi na papiru, kao što je slučaj s bocom olovke bez olovke. Isto tako, AI proizvod poput ChatGPT, Claude i Gemini je pažljiva kombinacija podataka o obuci i arhitekture – obično model u stilu Transformera – koji omogućava izražavanje podataka u upotrebljiv oblik.


Velika količina podataka je neophodna za obuku modernih velikih jezičnih modela (ChatGPT 4o, istaknuti LLM, procjenjuje se da ima oko__1,8 milijardi ulaznih parametara__), i tako general-use AI kompanije pretvorio u najveći open-source repozitorij jezičnih podataka u ljudskoj istoriji – internet. Osim što su obučeni na uzorcima teksta i slika izvađenih iz svakog web sajta zamišljen, state-of-the-art LLM se stalno hraniti više podataka izVlasnički podacii odRazgovori sa svojim korisnicimaNeumoljiva potreba za boljim podacima pokreće čitavo tržište pouzdanih informacija koje se koriste za obuku AI, što je sama po sebi gorka etička dilema koju ćemo razbiti u budućim člancima.

Vlasnički podaciRazgovori sa svojim korisnicima

Why Humans?

Nije iznenađujuće, u velikim skupovima podataka, razne štetne sadržaje koji pokreću raspon od seksualno eksplicitnog materijala do govora mržnje se suprotstavljaju zdravim, obrazovnim podacima o obuci, kao što je bio slučaj sa podskupom internetskih podataka koji se koriste za obuku većine modernih LLM chatbotova.Terabajti podataka o obuciDa bi se postigao kompromis između korištenja ljudskog pregleda i očuvanja skalabilnosti modela, AI kompanije su usvojile model Reinforcement Learning from Human Feedback (RLHF): u suštini, ljudski radnici bi označili i klasificirali potencijalno štetne podatke, koji se zatim hrane kroz sekvencu pojačavanja učenja kako bi prilagodili model prema sadržaju podataka o obuci.

Terabajti podataka o obuci

U tehničkom smislu, RLHF se ne razlikuje od standardnih algoritama Machine Learning Reinforcement Learning: duboka mreža se koristi za dodjelu rezultata odgovorima generisanim od strane AI-a na osnovu stvarnih, ljudskih podataka, dok se AI ponavlja da generira odgovore koji se zatim unose u ovu duboku mrežu, efikasno ga klasificirajući po tome koliko je štetan odgovor. Izlazak koji se smatra sličnim ljudima označenim „štetnim“ podacima negativno će uticati na tendenciju modela da generira nešto slično u budućnosti, dok će izlazak koji se smatra različitim od gore navedenih podataka dati modelu sklonost da generira takve izlaze kada je potaknut pod sličnim uslovima (Ako ste zainteresovani, preporučujem da provjerite.Ovaj blog postobjašnjavajući pseudo-tehničke detalje u vezi s upotrebom RLHF-a u modernim LLM-ovima). Drugim rečima, ovaj proces "uči" model AI da proizvede odgovore što je moguće drugačije od štetnih podataka označenih ljudima, efikasno ga fino prilagođavajući bez potrebe za ponovnim obukom.

Ovaj blog post

The Issue?

Umjesto toga, model RLHF koji navodno čini AI bezbednim i benignim uvelike ovisi o stotinama hiljada isplaćenih radnika, od kojih većina doprinose neprocjenjivim uslugama označavanja podataka putem online platformi „cloudwork“. Većina tih platformi slijedi format „requester i contractor“, u kojem su mnoštvo online radnika dodeljeno jednom zadatku, primajući platu po završetku onoga što zadatak predviđa, od označavanja sadržaja slike ili videa do bušenja zidova teksta za moguće ključne reči ili kontekste. Ovi radnici su neprocjenjivi doprinosi sigurnosti AI-a kao što to znamo – razlog zašto je javno objavljena AI poznata po tome što je prosperirajući izvori informacija izuzeti od povremenog vitrioluda i surovostiIzveštaj o pravednom radu za 2024. godinu koji je objavio Oxford Internet Institutenaglašava poslovne zloupotrebe koje na radnike stavljaju velike platforme za označavanje podataka u oblaku kao što su Amazon Mechanical Turk, Appen i Remotasks.

Izveštaj o pravednom radu za 2024. godinu koji je objavio Oxford Internet Institute
  • Niti jedna od spomenutih platformi nema mehanizme ili politike koje osiguravaju da izvođači primaju plaćanje od podnositelja zahtjeva za završen zadatke.
  • Samo jedna od spomenutih platformi (Appen) ima politike koje osiguravaju QoL radnika kroz ublažavanje prekomjernog rada.
  • Nijedna od spomenutih platformi nema jasne i lako tumačene ugovore koji propisuju uvjete za plaćanje i rad.
  • Niti jedna od spomenutih platformi nije pokazala da uzima povratne informacije izvođača pri donošenju izvršnih odluka.
  • Samo jedna od spomenutih platformi (Appen) ima politike koje priznaju pravo radnika na udruživanje (unijalizovanje).

Real People, Real Impact

Te osobe, često očajnički zaraditi malo dodatnih prihoda kako bi podržali svoju porodicu, provode satima ispred svog računala svaki dan, prolaze kroz menialne i ponavljajuće zadatke označavanja podataka, često se susreću s najgorim načinima ljudske depravnosti.Ponekad se javlja da je traumatizirangrafičkim i detaljnim opisima ili prikazima silovanja, gore, samopoškodbe i zlostavljanja životinja, svedočanstvo svih kojih je deo njihove očekivane dužnosti, bez naknadnog praćenja ili savjetovanja.

Ponekad se javlja da je traumatiziran

Kao izvođači, radnici nisu zaštićeni zakonima o plaćama i, u mnogim slučajevima, nisu plaćeni za prekovremeni rad. Daljinski zadatci postavljaju granicu na maksimalni broj sati rada za koje je učesnik plaćen, a platforma dodjeljuje zadatke nakon dugog procesa „kvalifikacije“ za koji potencijalni zadataknik nije plaćen. Ugovori su slabo i često dvosmisleno napisani, omogućujući mnogim zlostavljanjima radnika da prođu neopaženo.Žalosno malo– čak i iskusni radnici sposobni da efikasno završe zadatke povremeno se bore da zarađuju po oglašavanoj stopi od 10-15 dolara na sat, a manje sposobni učesnici su plaćeni još manje, na manje od 2 dolara u nekim slučajevima. Čak i ako su u stanju da zarađuju nešto novca, zadatke također muče nepoštenost tražitelja i kašnjenja u plaćanju.Odbijanje plaćanjastotine AI-data-labelera za svoj rad – više od 70.000 zadataka – na osnovu toga što su bili nezadovoljni.

Žalosno maloOdbijanje plaćanja

Stotine hiljada ljudi svakodnevno radi na označivanju podataka o AI-u, ali njihova frustracija slučajno je potisnuta lošom podrškom korisnicima i nedostatkom platforme.Općenito loše; neki zadatnici čak su izvijestili MIT Tech Review da korisnička podrška ponekadodbio da rješava svoje pritužbe o preduzimanju plaćanja.

Općenito lošeodbio da rješava svoje pritužbe o preduzimanju plaćanja

Slučajno, Remotasks, jedna od najvećih takvih tvrtki za označavanje podataka o AI-u, ključna je subvencija u Scale AI-u koja pruža označene podatke o obuci kao dio usluga za izgradnju AI kompanije. Službeno uspostavljena kako bi "očuvala poverljivost korisnika", ovo razdvajanje pokušava prikriti neke od manje ukusnih poslovnih praksi velike kompanije od javnog oka; u stvari, kada se uzme u obzir da je Remotasks postigao samo 1/10 na Fairwork-ovoj fer radnoj skali, a 10/10 je "minimalni zahtjev za pošteno radno okruženje", sigurno postoji mnogo toga o Scale-ovom zlostavljanju radnika koji podržavaju AI proizvode kroz njihov naporan rad.

This article is brought to you by Our AI, a student-founded and student-led AI Ethics organization seeking to diversify perspectives in AI beyond what is typically discussed in modern media. If you enjoyed this article, please check out our monthly publications and exclusive articles at https://www.our-ai.org/ai-nexus/read!

Ovaj članak vam donosi Naša AI, studentsko-osnovana i studentsko vođena organizacija za etiku AI koja nastoji diversifikovati perspektive u AI izvan onoga što se obično raspravlja u modernim medijima.https://www.our-ai.org/ai-nexus/read!

Raise Awareness

RLHF je dobra stvar učinjena na sve pogrešne načine. Kao snažan zagovornik razvoja AI-a usmjerenog na ljude, tvrdim da su trenutni standardi i politike nedovoljni kako bi se osiguralo da naše tehnologije ne negativno i nespretno utječu na naše čovječanstvo. Ako vam je dovoljno stalo do odgovornog i sigurnog razvoja AI-a, ne samo za Silicijsku dolinu, već za čovječanstvo u cjelini, snažno vas ohrabrujem da širite svijest o kršenjima radničkih prava u industriji AI-a – bilo da dijelite ovaj članak ili radite vlastita istraživanja – i podržavate odluke politike koje štite pravo radnika na poštenu platu i zastupljenost na radnom mjestu.

Svijet zaslužuje da zna – i vi biste trebali igrati svoj deo.


Redatelj: Thomas Yin

L O A D I N G
. . . comments & more!

About Author

Our AI HackerNoon profile picture
Our AI@OurAI
Student-led AI Ethics organization publishing high-effort articles about AI's impact on the world. Check us out at https://www.our-ai.org/ !

HANG TAGS

OVAJ ČLANAK JE PREDSTAVLJEN U...

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks