「我々は偏見のあるチームとAIにおける偏見と戦うことはできない」 - Joy Buolamwini
「我々は偏見のあるチームとAIにおける偏見と戦うことはできない」ジョイ・ブーラムウィン
もしあなたがこれを読んでいるなら、チャットGPTに質問をした、お気に入りの次の番組をビッグするための推薦システムを使用した、またはAIフィルターがあなたのセルフィーをルネッサンスの絵に変えるのを見た可能性があります。
しかし、我々は人工知能の力に驚いている一方で、我々は十分に質問していない質問があります。
誰がこの知性の構築に貢献したのか。
誰がこの知性の構築に貢献したのか。神経網と数十億のパラメータの背後には、見えないが信じられないほど重要な力がある。women科学者、エンジニア、倫理学者、先駆者たちは、今日私たちが知っているAIの基礎と倫理を形作りました。
Ada Lovelace: The Original Architect of Algorithms
AIは現代の奇跡のように見えるかもしれませんが、その根源は1800年代にさかのぼることができます - はい、本当に。world’s first computer programmer彼女は、マシンのための最初のアルゴリズムと見なされるものを書いた。彼女は、マシンが単にクランク数以上のことを行うことができる未来を想像した。
見覚えのある音?
ローベラスはAIを開発しなかったが、コンピュータ思考の扉を開いた。
AIはそれを通り過ぎた。
Fei-Fei Li: Teaching AI to See
現代のAIについての会話は、なしに完了しない。Dr. Fei-Fei Li彼は、スタンフォードの人間中心のAI研究所の共同ディレクターであり、現代のコンピュータビジョン革命を生み出すのに役立つほど巨大で詳細なデータセットであるImageNetの創造者です。
ImageNet 以前は、AI が画像分類に苦労していました。今日では、あなたの携帯電話は猫とカプチーノを区別することができ、彼女のチームが編集したデータで訓練された深い学習のおかげです。ethical, inclusive, and human-centered AI,インテリジェンスは共感なしには何の意味もないということを世界に思い出させる。
Timnit Gebru: The Voice of Conscience
AIは強力ですが、責任のない力は危険です。Timnit Gebruコンピュータ科学者で、GoogleのEthical AIチームの元共同指導者であるGebruのアルゴリズム偏見と顔認識の研究は、AIが人種差別と性差別を継続する方法を明らかにしました。
彼女の仕事は欠点を暴露するだけでなく、世界的な会話を引き起こした。ethics, corporate responsibility, and diversity in AI teams.TimnitのGoogleからの脱退はタイトルを引いたが、それはまた動きを引き起こし、テクノロジー企業に不快な真実に直面させるよう促した。
Joy Buolamwini: Fighting Bias with the Coded Gaze
あなたはおそらく顔認識について聞いたことがあるかもしれませんが、これらのシステムのいくつかは、暗い肌の女性を正確に識別できなかったことをご存知ですか?Joy Buolamwiniアルゴリズム正義連盟の創設者、MITメディアラボの研究を通じてこれを明らかにした。
ドキュメンタリーコードバイアス peeled back the shiny facade of AI to reveal something alarming: unintentional biases baked into code, stemming from a lack of representation in training data and development teams.ジョイの擁護は、現実世界の政策の変化と、法執行機関や政府におけるAIの展開に対する監視の増加につながりました。
コードバイアスOther Women Changing the Game
- 感情コンピューティングの先駆者であるラナ・エル・カリュービー氏は、表情表現を通じて人間の感情を検出できる感情AIを開発しました。
- ソーシャルロボットを開発した最初の1人であるCynthia Breazealは、機械をよりインタラクティブで人間のようなものにした。
- AIの政治的、哲学的側面を広げているケイト・クロフォード氏は、テクノロジーをより公平にするためにAI Now Instituteを共同設立しました。
These aren’t token names. These are women rewriting the rules of what machines can learn, feel, and decide.
これらはトークンネームではありません。これらは、機械が学ぶことができること、感じることができること、そして決めることができることのルールを書き換える女性です。これらはトークンネームではありません。これらは、機械が学ぶことができること、感じることができること、そして決めることができることのルールを書き換える女性です。Why This Matters?
グローバルAIの物語は、狭い人口統計によって長い間形作られています。AIが創造者の多様性なしに設計されると、有害なステレオタイプを強化し、 marginalized communities を無視するリスクがあります。a social responsibility建築家が彼が仕えるべき世界を反映することを確保するためです。
しかし、女性はまだ単に22% of AI professionals世界経済フォーラムによると、このギャップは代表性だけでなく、イノベーション、倫理、共感の盲点です。
A Call to Action
あなたがテクノロジーの専門家であるならば、女性を指導してください。あなたが雇用しているならば、あなたのチームを多様化してください。あなたが製品を構築しているならば、あなたのデータに質問してください。あなたがAIのポリシーを書いているなら、最初の日からそこにいたが、いつもマイクを持っていない声に耳を傾けてください。
AIの未来は、機械が何ができるかではなく、who gets to shape that future.
Let’s make sure it’s a future built by everyone, for everyone.