Alguns meses atrás, o CEO da Scale AI, Alexandr Wang, de 28 anos, fez manchetes após sua empresa, depois de uma rodada de financiamento extremamente bem-sucedida envolvendo Meta, Amazon e Microsoft.
The World of AI Data
Para explicar este requisito, vamos usar a analogia de uma caneta e tinta: uma caneta não inserida não seria capaz de se expressar em papel, como é o caso de uma garrafa de tinta sem caneta.Assim, um produto de IA como o ChatGPT, Claude e Gemini é a combinação cuidadosa de dados de treinamento e uma arquitetura – geralmente um modelo de estilo Transformer – permitindo a expressão dos dados em uma forma usável. Excluindo as formalidades matemáticas e programáticas para fins de acessibilidade, o processo em que um programa é capaz de produzir uma saída única baseada nos dados de treinamento no contexto de uma entrada, geralmente uma mensagem ou uma pergunta.
Uma grande quantidade de dados é necessária para treinar modernos modelos de grande linguagem (ChatGPT 4o, um LLM proeminente, é estimado para ter sobre__1.8 bilhões de entradas de parâmetros__), e assim as empresas de uso geral de IA viraram para o maior repositório de código aberto de dados de idioma na história humana – a internet.Além de serem treinados em amostras de texto e imagens arrancadas de cada site imaginável, os LLMs de última geração estão constantemente sendo alimentados com mais dados de
Why Humans?
Não surpreendentemente, em grandes conjuntos de dados, uma variedade de conteúdo prejudicial executando a gama de material sexualmente explícito para discurso de ódio é juntado com dados de treinamento educacionais saudáveis, como foi o caso com o subconjunto de dados da Internet usado para treinar a maioria dos chatbots LLM modernos.
Em termos técnicos, o RLHF não é diferente dos algoritmos padrão de Machine Learning Reinforcement Learning: uma rede profunda é empregada para atribuir uma pontuação a uma resposta gerada pela IA com base em dados reais, rotulados por humanos, enquanto a IA é repetidamente feita para gerar respostas que são então alimentadas nesta rede profunda, classificando-a efetivamente de acordo com o quão prejudicial a resposta é. Uma saída considerada semelhante aos dados “ prejudiciais” rotulados por humanos afetará negativamente a tendência do modelo para gerar algo semelhante no futuro, enquanto uma saída considerada não semelhante aos dados acima mencionados dará ao modelo uma propensão para gerar tais saídas quando impulsionada em condições semelhantes (Se você estiver interessado, eu recomendo altamente verificar.
The Issue?
Em vez disso, o modelo RLHF que supostamente torna a IA segura e benigna é fortemente dependente de centenas de milhares de trabalhadores subpagos, a maioria dos quais contribuem com serviços de rotulagem de dados inestimáveis através de plataformas on-line “cloudwork”. A maioria dessas plataformas segue um formato “requerente e contratante”, no qual multidões de trabalhadores on-line são atribuídos a uma tarefa, recebendo remuneração após a conclusão de qualquer tarefa estipulada, desde a rotulagem do conteúdo de uma imagem ou vídeo até o rastreamento de paredes de texto para possíveis palavras-chave ou contextos. Esses trabalhadores são contribuintes inestimáveis para a segurança da IA como a conhecemos – a razão pela qual a IA publicada publicamente é conhecida
- Nenhuma das plataformas mencionadas tem mecanismos ou políticas que garantam que os contratados recebam pagamento dos solicitantes por tarefas concluídas.
- Apenas uma das plataformas mencionadas (Appen) tem políticas que garantem o QoL dos trabalhadores através da mitigação do trabalho excessivo.
- Nenhuma das plataformas mencionadas tem contratos claros e facilmente interpretados que estipulam condições de pagamento e trabalho.
- Nenhuma das plataformas mencionadas mostrou que eles tomam o feedback dos contratantes na tomada de decisões executivas.
- Apenas uma das referidas plataformas (Appen) tem políticas que reconhecem o direito de associação dos trabalhadores (unificação).
Real People, Real Impact
A obscura falta de direitos desses trabalhadores de dados tem como resultado a criação de uma “subclasse” de trabalhadores de IA não reconhecida e subestimada. Essas pessoas, muitas vezes desesperadas para ganhar um pouco de renda extra para apoiar sua família, passam horas e horas na frente de seus computadores todos os dias, passando por tarefas mentais e repetitivas de rotulagem de dados, muitas vezes encontrando as piores maneiras de depravação humana.
Como contratantes, os trabalhadores não são protegidos pelas leis salariais e, em muitos casos, não são pagos por horas extras. As tarefas remotas colocam um limite sobre o número máximo de horas de trabalho que um participante é pago, e a plataforma atribui tarefas após um longo processo de “qualificação” para o qual um potencial contratante não é pago. Os contratos são mal escritos e muitas vezes ambíguos, permitindo que muitos maus tratos dos trabalhadores escapem despercebidos.
Centenas de milhares de pessoas trabalham no rótulo de dados de IA diariamente, mas sua frustração é acidentalmente esmagada pelo mau suporte ao cliente e pela falta de uma plataforma.
Coincidentemente, a Remotasks, uma das maiores empresas de rotulagem de dados de IA, é uma subvenção chave na Scale AI que fornece dados de treinamento rotulados como parte dos serviços de construção de IA da empresa. Oficialmente estabelecido para “preservar a confidencialidade do usuário”, esta separação tenta mascarar algumas das práticas de negócios menos saborosas da grande empresa do olho público; de fato, quando se considera que a Remotasks obteve apenas 1/10 na escala de trabalho justo da Fairwork, com um 10/10 sendo o “requisito mínimo para um ambiente de trabalho justo”, há certamente muito a ser discutido sobre o mau tratamento da Scale dos próprios trabalhadores que apoiam produtos de IA através de seu trabalho árduo.
Este artigo é trazido para você por Nossa IA, uma organização de ética de IA fundada por estudantes e liderada por estudantes que procura diversificar perspectivas em IA além do que é tipicamente discutido nas mídias modernas.
Este artigo é trazido para você por Nossa IA, uma organização de ética de IA fundada por estudantes e liderada por estudantes que procura diversificar perspectivas em IA além do que é tipicamente discutido nas mídias modernas.https://www.our-ai.org/ai-nexus/read!
Raise Awareness
Como um forte defensor do desenvolvimento de IA alinhado com os seres humanos, eu afirmo que os padrões e políticas atuais são insuficientes para garantir que nossas tecnologias não afetem negativamente e sobretudo nossa humanidade.Se você se importa o suficiente com o desenvolvimento responsável e seguro da IA, não apenas para o Vale do Silício, mas para a humanidade como um todo, eu encorajo fortemente você a espalhar a consciência das violações dos direitos dos trabalhadores na indústria da IA – seja através da partilha deste artigo ou fazendo sua própria pesquisa – e apoiando decisões políticas que protegem o direito dos trabalhadores a um salário justo e representação no local de trabalho.
O mundo merece saber – e você deve desempenhar sua parte.
Escrito por Thomas Yin