Een paar maanden geleden maakte de 28-jarige CEO van Scale AI, Alexandr Wang, headlines na zijn bedrijf, na een bijzonder succesvolle financieringsronde waarbij Meta, Amazon en Microsoft betrokken waren.
The World of AI Data
Om deze eis te verklaren, laten we de analogie van een pen en inkt gebruiken: een inkjetpen zou zich niet op papier kunnen uiten, zoals het geval is met een fles inkt zonder pen. Evenzo is een AI-product zoals ChatGPT, Claude en Gemini de zorgvuldige combinatie van trainingsgegevens en een architectuur – meestal een Transformers-stijlmodel – waarmee de gegevens in een bruikbare vorm kunnen worden uitgedrukt.
Een grote hoeveelheid gegevens is nodig om moderne grote taalmodellen te trainen (ChatGPT 4o, een prominente LLM, wordt geschat op ongeveer__1,8 miljard parameterinputs__), en dus algemeen gebruikte AI-bedrijven veranderden naar de grootste open-source repository van taalgegevens in de menselijke geschiedenis - het internet.Naast het worden getraind op monsters van tekst en afbeeldingen van elke website denkbaar, state-of-the-art LLM's worden voortdurend gevoed met meer gegevens van
Why Humans?
Niet verrassend, in grote datasets, een verscheidenheid aan schadelijke inhoud die het bereik van seksueel expliciet materiaal tot haatspraak loopt, wordt gecombineerd met gezonde, educatieve trainingsgegevens, zoals het geval was met de subset van internetgegevens die werden gebruikt om de meeste moderne LLM chatbots te trainen.
In technische termen is RLHF niet anders dan standaard machine learning Reinforcement Learning-algoritmen: een diep netwerk wordt gebruikt om een score toe te wijzen aan een door AI gegenereerde reactie op basis van echte, door mensen gemarkeerde gegevens, terwijl de AI herhaaldelijk wordt gemaakt om reacties te genereren die vervolgens worden gevoerd in dit diepe netwerk, effectief classificeren op hoe schadelijk de reactie is. een output die wordt beschouwd als vergelijkbaar met de door de mens gemarkeerde "schadelijke" gegevens zal de neiging van het model om iets soortgelijks te genereren in de toekomst negatief beïnvloeden, terwijl een output die wordt beschouwd als verschillend van de bovengenoemde gegevens het model een neiging zal geven om dergelijke outputs te genereren wanneer aangemoedig
The Issue?
Het RLHF-model dat beweerd AI veilig en goedaardig maakt, is sterk afhankelijk van honderdduizenden onderbetaalde werknemers, waarvan de meeste waardevolle gegevenslabeldiensten bijdragen via online "cloudwork" -platforms. De meeste van deze platforms volgen een "aanvrager en aannemer" -formaat, waarin talloze online werknemers aan één taak worden toegewezen, die een salaris ontvangen bij de voltooiing van wat de taak bepaalt, variërend van het labelen van de inhoud van een afbeelding of video tot het scrollen van tekstwanden voor mogelijke sleutelwoorden of contexten. Deze werknemers zijn onschatbare bijdragen aan de veiligheid van AI zoals we het kennen - de reden waarom openbaar vrijgegeven AI bekend staat om bloeiende bronnen van
- Geen van de genoemde platforms heeft mechanismen of beleidslijnen die ervoor zorgen dat aannemers betaling ontvangen van aanvragers voor voltooide taken.
- Slechts één van de genoemde platforms (Appen) heeft beleidslijnen die de QoL van werknemers garanderen door overwerk te verminderen.
- Geen van de genoemde platforms heeft duidelijke en gemakkelijk geïnterpreteerde contracten die voorwaarden voor betaling en werk bepalen.
- Geen van de genoemde platforms heeft aangetoond dat ze feedback van aannemers in aanmerking nemen bij het nemen van uitvoerende beslissingen.
- Alleen één van de genoemde platforms (Appen) heeft beleid dat het recht van werknemersvereniging (unionisering) erkent.
Real People, Real Impact
Deze mensen, vaak wanhopig om een beetje extra inkomen te verdienen om hun gezin te ondersteunen, besteden uren op uren voor hun computer elke dag, gaan door meniale en herhaalde taken van gegevensetikettering, vaak geconfronteerd met de ergste manieren van menselijke verdorvenheid.
Als aannemers worden werknemers niet beschermd door loonwetten, en in veel gevallen worden ze niet betaald voor overuren. Remote taken stellen een limiet op het maximale aantal uren werk waarvoor een deelnemer wordt betaald, en het platform wijst taken toe na een lang “kwalificatie” proces waarvoor een potentiële aannemer niet wordt betaald. Contracten zijn slecht en vaak dubbelzinnig geschreven, waardoor veel mishandelingen van werknemers onopgemerkt kunnen worden.
Honderden duizenden mensen werken dagelijks in AI-data-labeling, maar hun frustratie wordt toevallig ondermijnd door slechte klantenservice en het gebrek aan een platform.
Toevallig, Remotasks, een van de grootste dergelijke AI data-labeling bedrijven, is een belangrijke subsidie in Scale AI het verstrekken van gelabeld training gegevens als onderdeel van de AI-building diensten van het bedrijf. Officieel opgericht om "behoud van de vertrouwelijkheid van de gebruiker", deze scheiding probeert te maskeren enkele van de minder smakelijke zakelijke praktijken van het grote bedrijf van het publiek oog; inderdaad, als men beschouwt dat Remotasks scoorde slechts een 1/10 op Fairwork's eerlijke werk schaal, met een 10/10 is de "minimum vereiste voor een eerlijke werkomgeving", er is zeker veel te bespreken over Scale's misbruik van de werknemers die AI-producten ondersteunen door hun harde werk.
Dit artikel wordt aan u gebracht door Onze AI, een door studenten opgerichte en door studenten geleide AI Ethics-organisatie die perspectieven in AI wil diversifiëren buiten wat normaal gesproken in de moderne media wordt besproken.
Dit artikel wordt aan u gebracht door Onze AI, een door studenten opgerichte en door studenten geleide AI Ethics-organisatie die perspectieven in AI wil diversifiëren buiten wat normaal gesproken in de moderne media wordt besproken.
Raise Awareness
RLHF is een goed ding gedaan op alle verkeerde manieren.Als een sterke voorstander van mens-georiënteerde AI-ontwikkeling, beweer ik dat de huidige normen en beleidslijnen onvoldoende zijn om ervoor te zorgen dat onze technologieën onze mensheid niet nadelig en verraderlijk beïnvloeden.Als je genoeg geeft over de verantwoorde en veilige ontwikkeling van AI, niet alleen voor Silicon Valley, maar voor de mensheid als geheel, moedig ik je er sterk aan om je bewust te maken van de schendingen van de rechten van werknemers in de AI-industrie - door dit artikel te delen of je eigen onderzoek te doen - en beleidsbeslissingen te ondersteunen die het recht van werknemers op een eerlijk loon en vertegenwoordiging op de werkplek beschermen.
De wereld verdient het te weten – en jij moet je rol spelen.
Geschreven door Thomas Yin