数ヶ月前、28歳のスケールAICEOのアレクサンドル・ワンは、Meta、Amazon、Microsoftを含む非常に成功した資金調達ラウンドの後、彼の会社の後でタイトルを作った。
The World of AI Data
テクノロジー企業は、ほぼ創業以来、データから利益を得ているが、AIツールの新たな普及は、これまでにない新たなデータ需要を生み出している。この要件を説明するには、ペンとインクの類似性を用いてみましょう:インクレスペンは、ペンがない場合のインクのボトルと同様に、紙で表現することができない。
現代の大言語モデルを訓練するために大量のデータが必要です(ChatGPT 4o、著名なLLMは、約__を持つと推定されています。1.8億パラメーター入力__) そして、一般的なAI企業は、人間の歴史における言語データの最大のオープンソースリポジトリ - インターネット - に転換し、考えられるすべてのウェブサイトから抽出されたテキストと画像のサンプルに訓練されることに加えて、最先端のLLMsは絶えずより多くのデータを提供しています。
Why Humans?
驚くべきことに、大規模なデータセットでは、性的に明確な素材から憎しみのスピーチまで幅広い範囲を走る有害なコンテンツが、ほとんどの近代的なLLMチャットボットを訓練するために使用されたインターネットデータのサブセットと同様に、健康的な教育訓練データと並んでいます。
技術的に言えば、RLHFは標準的な機械学習強化学習アルゴリズムとは異なりません:深いネットワークは、実際の、ヒューマンレーベルデータに基づいてAI生成された応答にスコアを割り当てるために使用され、AIは繰り返し、その後、この深いネットワークに送信される応答を生成するように作られ、効果的にその応答の有害性に基づいて分類されます。
The Issue?
代わりに、AIを安全かつ良性にしたとされるRLHFモデルは、数十万人の未払い労働者に大きく依存しており、そのほとんどがオンラインの「クラウドワーク」プラットフォームを通じて貴重なデータラベルサービスを貢献している。これらのプラットフォームのほとんどは、「リクエストと契約者」形式に従い、オンライン労働者の大勢が1つのタスクに割り当てられ、タスクが定められたものの完了時に、画像やビデオのコンテンツのラベル化から、可能なキーワードや文脈のためのテキスト壁をスルーするまで、報酬を受け取る。これらの労働者は、私たちが知っているようにAIの安全性に貴重な貢献者である - なぜ公にリリースされたAIは、インターネットの偶然的な
- 上記のプラットフォームのいずれも、サプライヤーが完了したタスクの請求者から支払いを受けることを保証するメカニズムやポリシーを持っていません。
- 上記のプラットフォーム(Appen)の1つだけが、過労を軽減することによって従業員のQoLを確保するポリシーを持っています。
- 上記のプラットフォームのいずれも、支払いと仕事の条件を規定する明確かつ容易に解釈された契約を持っていません。
- 上記のプラットフォームのいずれも、実行決定に従事者からのフィードバックを取ることを示していない。
- 上記のプラットフォームの1つだけ(Appen)は、労働者結社の権利(組合化)を認めるポリシーを持っています。
Real People, Real Impact
これらのデータワーカーの権利の欠如は、AI労働者の未認識で過小評価された「サブクラス」の創出につながります。これらの人々は、しばしば家族を支えるために余分な収入を得るために絶望的に、毎日何時間もコンピュータの前で過ごし、データラベル化の微妙で繰り返しのタスクを経て、しばしば人間の堕落の最悪のやり方に直面しています。
サプライヤーとして、従業員は賃金法によって保護されず、多くの場合、過労労働のための報酬を受けません。リモートタスクは、参加者が支払われる労働時間の最大数に制限を設定し、プラットフォームは、将来のタスク担当者が支払われない長い「資格化」プロセス後にタスクを割り当てます。契約は悪く、しばしば曖昧に書かれており、多くの従業員の虐待が目に留まらないようにすることができます。
何十万人もの人々が日々AIデータラベル化に取り組んでいますが、彼らの不満は、不十分な顧客サポートとプラットフォームの欠如によって巧妙に抑えられています。
たまたま、Remotasksは、AIデータラベル化の最大の企業の1つであり、Scale AIの主要な補助金で、同社のAIビルディングサービスの一環としてラベル化されたトレーニングデータを提供しています。公式に「ユーザーの機密性を守る」ために設立されたこの分離は、大企業の不味わいなビジネス慣行のいくつかを一般の目から隠そうとします。実際、Remotasksがフェアウォークの公正な仕事のスケールで10分の1しか得ていないと考えると、10分の10が「公正な作業環境のための最低要件」であると見なされます。
この記事は、学生が設立し、学生が率いるAI倫理団体であるOur AIが、現代のメディアで一般的に議論されているものを超えてAIの視点を多様化することを目指しています。
この記事は、学生が設立し、学生が率いるAI倫理団体であるOur AIが、現代のメディアで一般的に議論されているものを超えてAIの視点を多様化することを目指しています。
Raise Awareness
RLHFはすべての間違った方法で行った良いことである。人間に合わせたAI開発の強力な支持者として、現在の基準と政策は、我々の技術が我々の人類に悪影響を及ぼさないことを確保するのに不十分であると主張します。もしあなたが、シリコンバレーだけでなく、人類全体にとって、AIの責任ある安全な開発を十分に気にしているなら、AI業界における労働者権利の侵害に関する意識を広げることを強く奨励します。
世界は知るに値する - そしてあなたはあなたの役割を果たすべきです。
Written by Thomas Yin