• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

「AI裁判官」は黒人に死刑を宣告しがち…差別的な行動を取るAIの登場で問題視されていること

50
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • badge
    東京大学 大学院情報理工学系研究科電子情報学専攻 教授

    何もバイアスがない状態に持っていくことは難しく、我々も「AIにどんな潜在的なバイアスがあるのか」を抽出する取り組みをしているところです。

    多くの場合、問題があったときだけ大きく取り上げられます。しかし、そのあと当該企業の方の話を伺うと、ものすごい努力をして問題解決を実現していることも多いのです。しかし、いつも取り上げられるのは最初に問題があったことだけ。その後の努力も、問題が解決したことも取り上げられることは皆無です。報道の皆さん、また、記事を書かれる専門家の皆さん、もう少しそこを掘り下げて取材いただくともっと深みのある、そしてフェアで「バイアスがない」報道になると思うのですが、ご検討いただけないでしょうか。


注目のコメント

  • 某上場企業 内部統制部門 部長

    >たとえば米国の一部の州では、ある人物が再び罪を起こす確率「再犯率」をAIに判断させ、それを裁判官が判決(保釈をしても良いかどうか等)を下す際の材料のひとつとして使うという取り組みが既に始まっている。本人に関する属性情報や過去のさまざまな行動履歴を参照して、具体的な再犯率を算出するのである。このAIは、Equivantという会社が開発した

    >「COMPAS」と呼ばれるソフトウェアなのだが、これについては既に「有色人種の方が再犯率を高く見積もる傾向があるのではないか」との指摘がなされており、議論が続いている。



    だったら、対象の人物の人種をAI(COMPAS)に教えずに再犯率を算出して貰えば良いのでは?

    人種データを与えて再犯率を出そうとしている時点で、人種の違いが再犯率に影響あると人間側が見込んでいるのだから人種データも使いたくなるのだろうが、ソフトに対象者の人種データを与えなければ考慮しょうがない。


  • フリーランス/零細投資家

    そもそも人種のデータを与える必要があるんでしょうか。情状酌量の余地など被告人の背景情報を考慮するのに必要なんですかね。
    アフリカ系アメリカ人英語を使っていると偏見が生まれるというのはそれこそChatGPTで標準語に変換すれば良い気もしますが、細かいニュアンスが変わる可能性等なかなかセンシティブな問題かもしれません。余計なバイアスが入り込まず本質的な情報だけでドライに判断するAIを作り上げるしかない気がしますね。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか