• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

育児休暇を取った人は採用で低評価?ChatGPTの判断に潜む根深いAIバイアス

JBpress(日本ビジネスプレス)
81
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    AI偏見の問題は、現在の偏見を学習して再現することだけではありません。偏見を増大させることが、より深刻な問題です。

    機械学習理論をかじった方なら分かると思います。当たり前ですがマイノリティは少ないのです。これを偏りのあるデータと言います。多数データの側で判別基準を学んだ方が、判別器としては大抵優秀です。

    例えば、合格者が男性90%女性10%で合格率2割のような採用試験のとき、最初に学習される判別ルールは「男性であること」です。簡略化し過ぎですが。

    AI採用を続けてゆくと、判断基準がどんどんマジョリティ側に寄ってゆきます。この偏見の強化が重大な問題です。


  • badge
    株式会社クラフター 代表取締役社長

    AIの回答をある程度コントロールし誘導することは、エンジニアにとっては難しいことではありません。記事内の通り、AIは過去のデータを元に回答するため、自分が回答してほしいようなデータを集めておけばいいのです。
    そこで過去の昇進した人物像を企業で紐解いてみると、柔軟でない働き方をする従業員が多かったことは想像に容易いです。そのため、育休や男性型働き方モデルと異なる従業員のプロファイルは、AIにとって”異分子”扱いされ評価が低くなってしまうのでしょう。

    AIによる差別的表現は海外だとChatGPTの登場から常につきまとってきたホットな話題で、欧米では既に協会や団体が複数存在し活動しています。一方、国内では客観的にAIの表現が適切か判断する機関がないように感じます。
    日本のAIサービスでは特に女性のイラストが呆れるぐらい多く、このまま進むとAIサービス=シス男性が使うものというイメージができ、企業の導入にも遠くなり、裾野を広げることが難しくなります。

    新技術がキャズムを超えるためには、誰かを傷つける表現をできる限り取り除くことが必要です。AIを活用する一事業者として、同業者にもうまく周知しながら広げていきたいところです。


  • badge
    株式会社エジソンエーアイ 代表取締役

    これはAIやChatGPTが悪いと言うより、使い方を誤った悪い例だという印象が強いです。

    数ヶ月前に米大学で教授がChatGPTを使って生徒の評価をしたところ、ほぼ全員不合格(クラスの単位が取れない評価)にしてしまい、問題になってたのを思い出しました😌


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか