650 leituras
650 leituras

A exploração do trabalhador não contada por trás de grandes modelos de linguagem

por Our AI7m2025/06/29
Read on Terminal Reader

Muito longo; Para ler

featured image - A exploração do trabalhador não contada por trás de grandes modelos de linguagem
Our AI HackerNoon profile picture
0-item

Alguns meses atrás, o CEO da Scale AI, Alexandr Wang, de 28 anos, fez manchetes após sua empresa, depois de uma rodada de financiamento extremamente bem-sucedida envolvendo Meta, Amazon e Microsoft.Mais de US$ 1 bilhão em capital de riscoEmbora a história de sucesso de Wang seja dramática – de um abandonado do MIT de 19 anos para o bilionário mais jovem do mundo – e bem relatada, muito menos foi dito sobre como sua empresa, uma empresa de rótulos de dados maciça, veio a ser. Graças a horas de pesquisa em estudos institucionais e relatórios relativamente obscuros, fiquei cada vez mais consciente de uma série de viragens igualmente dramáticas na história recente da empresa, uma que entrelazia as histórias de centenas de milhares de pessoas e o destino final do nosso mundo na sequência da revolução da IA. Este artigo explica, em profundidade, minhas descobertas e conhecimento sobre as travestias da engenhosidade humana onipresente no outsourcing de rótulos de dados de IA e como a sociedade, como um todo, deve agir para resolv

Mais de US$ 1 bilhão em capital de risco

The World of AI Data

Para explicar este requisito, vamos usar a analogia de uma caneta e tinta: uma caneta não inserida não seria capaz de se expressar em papel, como é o caso de uma garrafa de tinta sem caneta.Assim, um produto de IA como o ChatGPT, Claude e Gemini é a combinação cuidadosa de dados de treinamento e uma arquitetura – geralmente um modelo de estilo Transformer – permitindo a expressão dos dados em uma forma usável. Excluindo as formalidades matemáticas e programáticas para fins de acessibilidade, o processo em que um programa é capaz de produzir uma saída única baseada nos dados de treinamento no contexto de uma entrada, geralmente uma mensagem ou uma pergunta.


Uma grande quantidade de dados é necessária para treinar modernos modelos de grande linguagem (ChatGPT 4o, um LLM proeminente, é estimado para ter sobre__1.8 bilhões de entradas de parâmetros__), e assim as empresas de uso geral de IA viraram para o maior repositório de código aberto de dados de idioma na história humana – a internet.Além de serem treinados em amostras de texto e imagens arrancadas de cada site imaginável, os LLMs de última geração estão constantemente sendo alimentados com mais dados deproprietary datasetsE deConversações com seus usuáriosA necessidade incansável de melhores dados impulsiona um mercado inteiro de informações confiáveis usadas para treinar a IA, em si um dilema ético amargo que vamos quebrar em artigos futuros.

Dados ProprietáriosConversações com seus usuários

Why Humans?

Não surpreendentemente, em grandes conjuntos de dados, uma variedade de conteúdo prejudicial executando a gama de material sexualmente explícito para discurso de ódio é juntado com dados de treinamento educacionais saudáveis, como foi o caso com o subconjunto de dados da Internet usado para treinar a maioria dos chatbots LLM modernos.Terabytes de dados de treinamentoPara alcançar um compromisso entre usar a revisão humana e preservar a escalabilidade do modelo, as empresas de IA adotaram o modelo Reinforcement Learning from Human Feedback (RLHF): essencialmente, os trabalhadores humanos rotulariam e classificariam dados potencialmente prejudiciais, que são então alimentados através de uma sequência de aprendizagem de reforço para ajustar o modelo de acordo com o conteúdo dos dados de treinamento.

Terabytes de dados de treinamento

Em termos técnicos, o RLHF não é diferente dos algoritmos padrão de Machine Learning Reinforcement Learning: uma rede profunda é empregada para atribuir uma pontuação a uma resposta gerada pela IA com base em dados reais, rotulados por humanos, enquanto a IA é repetidamente feita para gerar respostas que são então alimentadas nesta rede profunda, classificando-a efetivamente de acordo com o quão prejudicial a resposta é. Uma saída considerada semelhante aos dados “ prejudiciais” rotulados por humanos afetará negativamente a tendência do modelo para gerar algo semelhante no futuro, enquanto uma saída considerada não semelhante aos dados acima mencionados dará ao modelo uma propensão para gerar tais saídas quando impulsionada em condições semelhantes (Se você estiver interessado, eu recomendo altamente verificar.Este post do blogexplicando detalhes pseudo-técnicos relativos ao uso de RLHF em LLMs modernos).Em outras palavras, este processo “ensina” o modelo de IA a produzir respostas tão diferentes quanto possível aos dados prejudiciais rotulados pelo homem, efetivamente ajustando-o sem a necessidade de retrabalho.

Este post do blog

The Issue?

Em vez disso, o modelo RLHF que supostamente torna a IA segura e benigna é fortemente dependente de centenas de milhares de trabalhadores subpagos, a maioria dos quais contribuem com serviços de rotulagem de dados inestimáveis através de plataformas on-line “cloudwork”. A maioria dessas plataformas segue um formato “requerente e contratante”, no qual multidões de trabalhadores on-line são atribuídos a uma tarefa, recebendo remuneração após a conclusão de qualquer tarefa estipulada, desde a rotulagem do conteúdo de uma imagem ou vídeo até o rastreamento de paredes de texto para possíveis palavras-chave ou contextos. Esses trabalhadores são contribuintes inestimáveis para a segurança da IA como a conhecemos – a razão pela qual a IA publicada publicamente é conhecidaRelatório Fairwork 2024 do Instituto de Internet de OxfordDestaca as práticas comerciais abusivas tomadas sobre os trabalhadores por grandes plataformas de rotulagem de dados de IA em nuvem, como Amazon Mechanical Turk, Appen e Remotasks.

Relatório Fairwork 2024 do Instituto de Internet de Oxford
  • Nenhuma das plataformas mencionadas tem mecanismos ou políticas que garantam que os contratados recebam pagamento dos solicitantes por tarefas concluídas.
  • Apenas uma das plataformas mencionadas (Appen) tem políticas que garantem o QoL dos trabalhadores através da mitigação do trabalho excessivo.
  • Nenhuma das plataformas mencionadas tem contratos claros e facilmente interpretados que estipulam condições de pagamento e trabalho.
  • Nenhuma das plataformas mencionadas mostrou que eles tomam o feedback dos contratantes na tomada de decisões executivas.
  • Apenas uma das referidas plataformas (Appen) tem políticas que reconhecem o direito de associação dos trabalhadores (unificação).

Real People, Real Impact

A obscura falta de direitos desses trabalhadores de dados tem como resultado a criação de uma “subclasse” de trabalhadores de IA não reconhecida e subestimada. Essas pessoas, muitas vezes desesperadas para ganhar um pouco de renda extra para apoiar sua família, passam horas e horas na frente de seus computadores todos os dias, passando por tarefas mentais e repetitivas de rotulagem de dados, muitas vezes encontrando as piores maneiras de depravação humana.repetidamente relatado ser traumatizadopor descrições gráficas e detalhadas ou representações de estupro, horror, auto-agressão e abuso de animais, cuja testemunha faz parte de seu dever esperado, sem seguimento ou aconselhamento posterior.

repetidamente relatado ser traumatizado

Como contratantes, os trabalhadores não são protegidos pelas leis salariais e, em muitos casos, não são pagos por horas extras. As tarefas remotas colocam um limite sobre o número máximo de horas de trabalho que um participante é pago, e a plataforma atribui tarefas após um longo processo de “qualificação” para o qual um potencial contratante não é pago. Os contratos são mal escritos e muitas vezes ambíguos, permitindo que muitos maus tratos dos trabalhadores escapem despercebidos.Infelizmente pouco– mesmo os trabalhadores experientes capazes de completar tarefas de forma eficiente às vezes lutam para ganhar na taxa anunciada de US $ 10-15 por hora, e os participantes menos capazes foram pagos ainda menos, a menos de US $ 2 em alguns casos. Mesmo que eles sejam capazes de ganhar algum dinheiro, os trabalhadores também são atormentados pela desonestidade do requerente e atrasos no pagamento.Recusa em pagarcentenas de data-labelers de IA por seu trabalho – mais de 70 mil tarefas – com o fundamento de que eles eram insatisfatórios.

Infelizmente poucoRecusa em pagar

Centenas de milhares de pessoas trabalham no rótulo de dados de IA diariamente, mas sua frustração é acidentalmente esmagada pelo mau suporte ao cliente e pela falta de uma plataforma.São geralmente ruins; some taskers even reported to MIT Tech Review that the customer support sometimes refused to handle their claims about overdue pay.

São geralmente ruinsrecusou-se a lidar com suas alegações sobre salários atrasados

Coincidentemente, a Remotasks, uma das maiores empresas de rotulagem de dados de IA, é uma subvenção chave na Scale AI que fornece dados de treinamento rotulados como parte dos serviços de construção de IA da empresa. Oficialmente estabelecido para “preservar a confidencialidade do usuário”, esta separação tenta mascarar algumas das práticas de negócios menos saborosas da grande empresa do olho público; de fato, quando se considera que a Remotasks obteve apenas 1/10 na escala de trabalho justo da Fairwork, com um 10/10 sendo o “requisito mínimo para um ambiente de trabalho justo”, há certamente muito a ser discutido sobre o mau tratamento da Scale dos próprios trabalhadores que apoiam produtos de IA através de seu trabalho árduo.

Este artigo é trazido para você por Nossa IA, uma organização de ética de IA fundada por estudantes e liderada por estudantes que procura diversificar perspectivas em IA além do que é tipicamente discutido nas mídias modernas.

Este artigo é trazido para você por Nossa IA, uma organização de ética de IA fundada por estudantes e liderada por estudantes que procura diversificar perspectivas em IA além do que é tipicamente discutido nas mídias modernas.https://www.our-ai.org/ai-nexus/read!

Raise Awareness

Como um forte defensor do desenvolvimento de IA alinhado com os seres humanos, eu afirmo que os padrões e políticas atuais são insuficientes para garantir que nossas tecnologias não afetem negativamente e sobretudo nossa humanidade.Se você se importa o suficiente com o desenvolvimento responsável e seguro da IA, não apenas para o Vale do Silício, mas para a humanidade como um todo, eu encorajo fortemente você a espalhar a consciência das violações dos direitos dos trabalhadores na indústria da IA – seja através da partilha deste artigo ou fazendo sua própria pesquisa – e apoiando decisões políticas que protegem o direito dos trabalhadores a um salário justo e representação no local de trabalho.

O mundo merece saber – e você deve desempenhar sua parte.


Escrito por Thomas Yin

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks