650 lezingen
650 lezingen

De onuitgesproken uitbuiting van werknemers achter grote taalmodellen

door Our AI7m2025/06/29
Read on Terminal Reader

Te lang; Lezen

featured image - De onuitgesproken uitbuiting van werknemers achter grote taalmodellen
Our AI HackerNoon profile picture
0-item

Een paar maanden geleden maakte de 28-jarige CEO van Scale AI, Alexandr Wang, headlines na zijn bedrijf, na een bijzonder succesvolle financieringsronde waarbij Meta, Amazon en Microsoft betrokken waren.Meer dan $1 miljard aan risicokapitaalHoewel het succesverhaal van Wang dramatisch is – van een 19-jarige MIT-verlater tot de jongste zelfgemaakte miljardair ter wereld – en goed gerapporteerd, is er veel minder verteld over hoe zijn bedrijf, een massief data-labeling bedrijf, werd.Dankzij uren van onderzoek naar institutionele studies en relatief onduidelijke rapportage, ben ik me steeds meer bewust geworden van een reeks even dramatische twists in de recente geschiedenis van het bedrijf, die de verhalen van honderdduizenden mensen en het uiteindelijke lot van onze wereld na de AI-revolutie met elkaar verbinden.

Meer dan $1 miljard aan risicokapitaal

The World of AI Data

Om deze eis te verklaren, laten we de analogie van een pen en inkt gebruiken: een inkjetpen zou zich niet op papier kunnen uiten, zoals het geval is met een fles inkt zonder pen. Evenzo is een AI-product zoals ChatGPT, Claude en Gemini de zorgvuldige combinatie van trainingsgegevens en een architectuur – meestal een Transformers-stijlmodel – waarmee de gegevens in een bruikbare vorm kunnen worden uitgedrukt.


Een grote hoeveelheid gegevens is nodig om moderne grote taalmodellen te trainen (ChatGPT 4o, een prominente LLM, wordt geschat op ongeveer__1,8 miljard parameterinputs__), en dus algemeen gebruikte AI-bedrijven veranderden naar de grootste open-source repository van taalgegevens in de menselijke geschiedenis - het internet.Naast het worden getraind op monsters van tekst en afbeeldingen van elke website denkbaar, state-of-the-art LLM's worden voortdurend gevoed met meer gegevens vanEigenaar Gegevensen vanGesprekken met zijn gebruikersDe onuitputtelijke behoefte aan betere gegevens drijft een hele markt voor betrouwbare informatie die wordt gebruikt om AI te trainen, op zich een bitter ethisch dilemma dat we in toekomstige artikelen zullen doorbreken.

Eigenaar GegevensGesprekken met zijn gebruikers

Why Humans?

Niet verrassend, in grote datasets, een verscheidenheid aan schadelijke inhoud die het bereik van seksueel expliciet materiaal tot haatspraak loopt, wordt gecombineerd met gezonde, educatieve trainingsgegevens, zoals het geval was met de subset van internetgegevens die werden gebruikt om de meeste moderne LLM chatbots te trainen.Terabyte trainingsgegevensOm een compromis te sluiten tussen het gebruik van menselijke beoordeling en het behoud van de schaalbaarheid van het model, hebben AI-bedrijven het Reinforcement Learning from Human Feedback (RLHF) -model aangenomen: in wezen zouden menselijke werknemers potentieel schadelijke gegevens etiketteren en classificeren, die vervolgens worden gevoed via een versterking-leren-sequentie om het model aan te passen aan de inhoud van de trainingsgegevens.

Terabyte trainingsgegevens

In technische termen is RLHF niet anders dan standaard machine learning Reinforcement Learning-algoritmen: een diep netwerk wordt gebruikt om een score toe te wijzen aan een door AI gegenereerde reactie op basis van echte, door mensen gemarkeerde gegevens, terwijl de AI herhaaldelijk wordt gemaakt om reacties te genereren die vervolgens worden gevoerd in dit diepe netwerk, effectief classificeren op hoe schadelijk de reactie is. een output die wordt beschouwd als vergelijkbaar met de door de mens gemarkeerde "schadelijke" gegevens zal de neiging van het model om iets soortgelijks te genereren in de toekomst negatief beïnvloeden, terwijl een output die wordt beschouwd als verschillend van de bovengenoemde gegevens het model een neiging zal geven om dergelijke outputs te genereren wanneer aangemoedigDeze blogpostMet andere woorden, dit proces “leert” het AI-model om reacties te produceren die zo verschillend mogelijk zijn van de door de mens gemarkeerde schadelijke gegevens, waardoor het effectief wordt afgestemd zonder dat het nodig is om het opnieuw te trainen.

Deze blogpost

The Issue?

Het RLHF-model dat beweerd AI veilig en goedaardig maakt, is sterk afhankelijk van honderdduizenden onderbetaalde werknemers, waarvan de meeste waardevolle gegevenslabeldiensten bijdragen via online "cloudwork" -platforms. De meeste van deze platforms volgen een "aanvrager en aannemer" -formaat, waarin talloze online werknemers aan één taak worden toegewezen, die een salaris ontvangen bij de voltooiing van wat de taak bepaalt, variërend van het labelen van de inhoud van een afbeelding of video tot het scrollen van tekstwanden voor mogelijke sleutelwoorden of contexten. Deze werknemers zijn onschatbare bijdragen aan de veiligheid van AI zoals we het kennen - de reden waarom openbaar vrijgegeven AI bekend staat om bloeiende bronnen vanHet Fairwork Report 2024 van het Oxford Internet Instituteonderstreept de zakelijke mispraktijken die werknemers worden aangetast door grote cloud-AI-databeleideringsplatforms zoals Amazon Mechanical Turk, Appen en Remotasks.

Het Fairwork Report 2024 van het Oxford Internet Institute
  • Geen van de genoemde platforms heeft mechanismen of beleidslijnen die ervoor zorgen dat aannemers betaling ontvangen van aanvragers voor voltooide taken.
  • Slechts één van de genoemde platforms (Appen) heeft beleidslijnen die de QoL van werknemers garanderen door overwerk te verminderen.
  • Geen van de genoemde platforms heeft duidelijke en gemakkelijk geïnterpreteerde contracten die voorwaarden voor betaling en werk bepalen.
  • Geen van de genoemde platforms heeft aangetoond dat ze feedback van aannemers in aanmerking nemen bij het nemen van uitvoerende beslissingen.
  • Alleen één van de genoemde platforms (Appen) heeft beleid dat het recht van werknemersvereniging (unionisering) erkent.

Real People, Real Impact

Deze mensen, vaak wanhopig om een beetje extra inkomen te verdienen om hun gezin te ondersteunen, besteden uren op uren voor hun computer elke dag, gaan door meniale en herhaalde taken van gegevensetikettering, vaak geconfronteerd met de ergste manieren van menselijke verdorvenheid.repeatedly reported being traumatizeddoor grafische en gedetailleerde beschrijvingen of afbeeldingen van verkrachting, gore, zelfbeschadiging en dierenmishandeling, waarvan het getuigenis deel uitmaakt van hun verwachte plicht, zonder daaropvolgende follow-up of advies.

repeatedly reported being traumatized

Als aannemers worden werknemers niet beschermd door loonwetten, en in veel gevallen worden ze niet betaald voor overuren. Remote taken stellen een limiet op het maximale aantal uren werk waarvoor een deelnemer wordt betaald, en het platform wijst taken toe na een lang “kwalificatie” proces waarvoor een potentiële aannemer niet wordt betaald. Contracten zijn slecht en vaak dubbelzinnig geschreven, waardoor veel mishandelingen van werknemers onopgemerkt kunnen worden.Pijnlijk weinig– zelfs ervaren werknemers die taken efficiënt kunnen uitvoeren, worstelen af en toe met het verdienen van 10-15 dollar per uur, en minder bekwame deelnemers werden zelfs minder betaald, in sommige gevallen minder dan 2 dollar. Zelfs als ze in staat zijn om wat geld te verdienen, worden werknemers ook geplaagd door onrechtvaardigheid van aanvragers en betalingsachterstand.Weigeren te betalenhonderden AI data-labelers voor hun werk – meer dan 70.000 taken waard – op de grond dat ze onbevredigend waren.

Pijnlijk weinigWeigeren te betalen

Honderden duizenden mensen werken dagelijks in AI-data-labeling, maar hun frustratie wordt toevallig ondermijnd door slechte klantenservice en het gebrek aan een platform.Over het algemeen slechtSommige opdrachtgevers melden zelfs aan MIT Tech Review dat de klantondersteuning somsweigeren om te gaan met hun vorderingen over te late salarissen.

Over het algemeen slechtweigeren om te gaan met hun vorderingen over te late salarissen

Toevallig, Remotasks, een van de grootste dergelijke AI data-labeling bedrijven, is een belangrijke subsidie in Scale AI het verstrekken van gelabeld training gegevens als onderdeel van de AI-building diensten van het bedrijf. Officieel opgericht om "behoud van de vertrouwelijkheid van de gebruiker", deze scheiding probeert te maskeren enkele van de minder smakelijke zakelijke praktijken van het grote bedrijf van het publiek oog; inderdaad, als men beschouwt dat Remotasks scoorde slechts een 1/10 op Fairwork's eerlijke werk schaal, met een 10/10 is de "minimum vereiste voor een eerlijke werkomgeving", er is zeker veel te bespreken over Scale's misbruik van de werknemers die AI-producten ondersteunen door hun harde werk.

Dit artikel wordt aan u gebracht door Onze AI, een door studenten opgerichte en door studenten geleide AI Ethics-organisatie die perspectieven in AI wil diversifiëren buiten wat normaal gesproken in de moderne media wordt besproken.

Dit artikel wordt aan u gebracht door Onze AI, een door studenten opgerichte en door studenten geleide AI Ethics-organisatie die perspectieven in AI wil diversifiëren buiten wat normaal gesproken in de moderne media wordt besproken.

Raise Awareness

RLHF is een goed ding gedaan op alle verkeerde manieren.Als een sterke voorstander van mens-georiënteerde AI-ontwikkeling, beweer ik dat de huidige normen en beleidslijnen onvoldoende zijn om ervoor te zorgen dat onze technologieën onze mensheid niet nadelig en verraderlijk beïnvloeden.Als je genoeg geeft over de verantwoorde en veilige ontwikkeling van AI, niet alleen voor Silicon Valley, maar voor de mensheid als geheel, moedig ik je er sterk aan om je bewust te maken van de schendingen van de rechten van werknemers in de AI-industrie - door dit artikel te delen of je eigen onderzoek te doen - en beleidsbeslissingen te ondersteunen die het recht van werknemers op een eerlijk loon en vertegenwoordiging op de werkplek beschermen.

De wereld verdient het te weten – en jij moet je rol spelen.


Geschreven door Thomas Yin

L O A D I N G
. . . comments & more!

About Author

Our AI HackerNoon profile picture
Our AI@OurAI
Student-led AI Ethics organization publishing high-effort articles about AI's impact on the world. Check us out at https://www.our-ai.org/ !

LABELS

DIT ARTIKEL WERD GEPRESENTEERD IN...

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks