新着Pick
230Picks
シェアする
Pick
Pick に失敗しました

人気 Picker
「責任」とは、何か不都合な事態が生じた時に、過去の時点でその事態を予測し回避可能だった意思決定をすることができたと推定される「主体」に対し、現時点の人間ないし人間集団の心理のなかに発生する義務概念の一種である。

一般に「責任を取る」と呼ばれるペナルティを貸すことで(自業自得の場合は自己責任と呼ばれ、生じた不都合事態がペナルティとみなされることもある)、同様の事態を繰り返さないための社会的抑止としての安心感や、不公平感を是正する機能を持ち、社会の秩序の維持としてのルール(法律)にとって重要な意味を持っている。

その意味において「説明責任」とは、責任がある疑いのある主体が、当該の意思決定を行った当時、後に起こった不都合な事態を予見し回避する決定が可能だったか(その自由があったか、決定権があったかも含め)を当事者が説明することで、その責任の有無を現時点の人たちが判断するために必要とされるもので、最終的に誰のどこに責任の所在があるのかを判定するために重要な義務とされるものである。

そう、重要なのは、人間側の納得感である。

まず、AIが責任を伴う意思決定をする「主体」足りうるかというと、ペナルティを受ける主体になり得ないので(社会構成員の大多数が納得することが重要)、意思決定はできても責任者にはなれないというのが、私の考え。

ペナルティによる苦しみを社会が認知してくれるのは、人間の最後の特権。

従って、人間に損得をもたらす可能性のある意思決定を行うAIには、少なくともその所有者(または運用供与者)が紐付いている必要があり、それ以外の場合は偶発的な事故として処理せざる得ない。

例えば、所有権の無い殺人ドローンを野に放った場合、その放った人を特定できなければ責任を問えない。

これは放火において炎に責任も説明責任も問えないのと同じ。


いくつかの国で、AIに法的な人格権を与える動きがありますが、法学者の無知からくるのかなんかのかわかりませんが、いずれ破綻する気がします。
とても興味深い質問です。
”決定に対する説明とは一般的に、意思決定プロセスを説明することではなく、特定の決定を下した理由または正当性を意味します”
つまり企業秘密は守られるが、AIの判断が倫理的に間違っていないか、人間さまを納得させられるかがポイントになる。ふむ。これだけで小説のネタにできます。
それが公開されても意味が人にとってあるかは不明では。「システムが従う規則を公開すればいいのだ」
ない

説明は可能だが責任は無い