2022年6月26日日曜日

スプツニ子!

まえ日経新聞のコラムに寄稿してたけど、人工知能っていうのは、過去の膨大なデータから学習するから、男女差別やマイノリティーに関する社会の偏った部分を、そのまま受け継いでしまう危険性がある、と書いてたけど、最近ネット使ってても、Googleでも、なんていうか、もう、全部ではないにせよ、ほとんど検索入力したワードに対して、カテゴライズされた結果が返ってくるって感じることはあるね。 カテゴライズするってことは、そこから外れるやつは無視することにも繋がるからね。 その結果、偏見を助長するってこともある。 特に俺みたいな病気の人に対しては。 俺もいつポアされるかわからん。 もっとも、既存のメディアがそういう「カテゴライズ」の陥穽から逃れて、例えばこういう病気の実態をどこまで捉えてるかってのも、当事者目線から言えば、かなり疑問だけどね。 「カテゴライズ」が洗練化されればされるほど、偏見が固定化されるってこともあるしね。 「カテゴライズ」が洗練化されればされるほど、固定化された偏見で物事を判断するので、人々は自分の頭で考えなくなることも意味する。 そういう社会においては、マイノリティーが最も危険性にさらされる。 なぜならば、マイノリティーに関する社会の見方それ自体も、予め固定化されているから。 それは、極めて洗練にカテゴライズされた「アメリカ人」とか「日本人」のイメージが、実態とほとんど乖離しているのに似ている。 このような、統計学の社会的勝利は、ハンナ・アーレントが指摘した危険性に共鳴するものがある。

0 件のコメント:

コメントを投稿

曽根崎心中 (再掲)

愛という感情が日本の歴史上にも古くから存在していたことは、 源氏物語にも書かれていることで、わかる。 しかし、 日本の宗教観念には、愛を裏打ちするものがない。 改行(節目節目で改行がある方が効果的。以下、同じ。) 曾根崎心中は、 男が女郎をカネで身受けしようとするが、...