2020-12-23

AI批判のあさはかさ


人工知能(AI)の普及につれ、その「影の部分」が問題視されるようになってきた。AIによる差別だ。

ソニーは2021年春にも、AIを使うすべての製品について倫理面での安全性を審査するそうだ。不適切と判断された製品は基準に合うよう改善したり開発を止めたりするらしい。

このことを報じた記事では、ソニーが審査で具体的に何を「不適切」と判断するのかはわからないが、米アップルの事例が紹介されている。2019年、クレジットカードの与信限度額を決める同社製のアルゴリズムが、女性より男性を優遇しているとの指摘を受け、カードの運用会社を米金融当局が調査したという。

こうした「AIの倫理」に関する報道のパターンはいつも決まっている。差別は無条件で悪いという前提に立ち、差別を行うAIを断罪する。そのうえで、AIの欠陥を人間が正してやらなければならないと、上から目線で決めつける。

じつにわかりやすい。けれども、物事はそれほど単純ではない。

たとえば、モテる男の必須条件は「3高(高学歴・高身長・高収入)」といわれる。これはどう考えても、低学歴・低身長・低収入の男性に対する差別だ。3高には含まれないが、イケメンかどうかも重要な条件だろう。ブサメンに対する心ない差別だ。

もし大手結婚相談所がAIを駆使し、「3高」やイケメンの男性をひそかにおすすめする仕組みを導入したら、差別は無条件に悪いと信じるメディアや政府は当然、差別を助長するものとして廃止を求めなければならないだろう。

だが廃止されて困るのは、婚活で「3高」やイケメンを探したい女性たちだ。少子化対策として結婚を奨励する政府自身の方針にも逆行する。

このように書くと、「差別と好みは違う」「差別と区別は同じではない」などと反論されそうだ。しかし、差別と好み、差別と区別がどう違うのか、明確な根拠を見たことはない。

AIによる差別はけしからんと声高に批判するメディアや識者自身、差別とは何かについて深く考えているとは思えない。AIは「マッタク人間テヤツハ……」とあきれていることだろう。

0 件のコメント:

コメントを投稿