2022年6月26日日曜日

スプツニ子!

まえ日経新聞のコラムに寄稿してたけど、人工知能っていうのは、過去の膨大なデータから学習するから、男女差別やマイノリティーに関する社会の偏った部分を、そのまま受け継いでしまう危険性がある、と書いてたけど、最近ネット使ってても、Googleでも、なんていうか、もう、全部ではないにせよ、ほとんど検索入力したワードに対して、カテゴライズされた結果が返ってくるって感じることはあるね。 カテゴライズするってことは、そこから外れるやつは無視することにも繋がるからね。 その結果、偏見を助長するってこともある。 特に俺みたいな病気の人に対しては。 俺もいつポアされるかわからん。 もっとも、既存のメディアがそういう「カテゴライズ」の陥穽から逃れて、例えばこういう病気の実態をどこまで捉えてるかってのも、当事者目線から言えば、かなり疑問だけどね。 「カテゴライズ」が洗練化されればされるほど、偏見が固定化されるってこともあるしね。 「カテゴライズ」が洗練化されればされるほど、固定化された偏見で物事を判断するので、人々は自分の頭で考えなくなることも意味する。 そういう社会においては、マイノリティーが最も危険性にさらされる。 なぜならば、マイノリティーに関する社会の見方それ自体も、予め固定化されているから。 それは、極めて洗練にカテゴライズされた「アメリカ人」とか「日本人」のイメージが、実態とほとんど乖離しているのに似ている。 このような、統計学の社会的勝利は、ハンナ・アーレントが指摘した危険性に共鳴するものがある。

0 件のコメント:

コメントを投稿

イイハラ→メシハラ→メッシ

昔 東京ヤクルトスワローズに 飯原(イイハラ)という選手がいて、 たまたま 神宮球場のバックネット裏で 観戦したことがあるんだが、 飯原選手が バッターで、 強振したときに、 バックネット裏の 観客席まで ブンッ!って スイング音が聞こえたね。 あれはす...