アルゴリズム的バイアスが10代の若者を傷つける方法
重要なポイント
- 専門家によると、アルゴリズム的バイアスは、インターネットに多くの時間を費やす10代の若者にとって有害です。
- Twitterユーザーは最近、黒い顔が白い顔を優先して淘汰されるという問題に遭遇しました。
- 研究者によると、10代の若者の発達中の脳は、アルゴリズム的バイアスの悪影響を特に受けやすい可能性があります。
アルゴリズムバイアスとして知られているいくつかの技術に焼き付けられた偏見は、多くのグループに害を及ぼす可能性がありますが、専門家はそれが特に十代の若者たちに損害を与えると言います。
コンピュータシステムが偏見のある結果を示すときのアルゴリズム的バイアスは、 増大する問題. Twitterユーザーは最近、写真をトリミングする画像検出アルゴリズムがプラットフォームに偏りがある例を発見しました 白い顔を優先して黒い顔を切り取っていた. 同社はこの問題について謝罪したが、まだ修正をリリースしていない。 これは、10代の若者がオンラインになったときに直面する偏見の例です。 彼らは他のどの年齢層よりも多くのことをしています、専門家は言います。
「ほとんどの10代の若者は、ソーシャルメディア企業が、ユーザーがプラットフォーム上にできるだけ長く滞在できるようにするために、ユーザーが望んでいると思われる特定のコンテンツを宣伝するためにそれらを配置していることに気づいていません。」 Mai-Ly NguyenSteers博士、デュケイン大学看護学部の助教授で、青年/大学生のソーシャルメディアの使用法を研究していると、電子メールのインタビューで述べています。
「アルゴリズムについてある程度の意識があったとしても、十分ないいねやコメントが得られないという影響は依然として強力であり、10代の若者の自尊心に影響を与える可能性があります」とSteers氏は付け加えました。
脳の発達
アルゴリズム的バイアスは、前頭前野がまだ発達しているため、予期しない方法で10代の若者に影響を与える可能性があります、Mikaela Pisani、チーフデータサイエンティスト ルートストラップで、メールインタビューで説明。
「十分ないいねやコメントが得られないという影響は依然として強力であり、10代の若者の自尊心に影響を与える可能性があります。」
「10代の若者は、アルゴリズムが社会的クラスターを作成する「ソーシャルファクトリー」の現象に対して特に脆弱です。 オンラインプラットフォームでは、10代の社会的承認のニーズが満たされない場合、不安や鬱病につながる」と述べた。 ピサニ。 「アルゴリズムは以前の不完全なデータに基づいて単純化されます。アイデンティティ形成へのより微妙なアプローチを犠牲にして、ステレオタイプの過剰表現につながります。
「より広い視点から見ると、私たちが社会として、私たちのアルゴリズムを形作るアルゴリズムが必要かどうかも疑問視されています。 10代の若者の成人期への旅、そしてこのシステムは個人の個人を抑圧するのではなく、サポートしますか 成長?"
これらの問題のために、アルゴリズムを設計する際にティーンエイジャーを念頭に置く必要性が高まっていると専門家は言います。
「開発スペシャリスト、データサイエンティスト、若者の支持者からの意見に基づいて、21世紀の政策 データプライバシーとアルゴリズム設計を中心に、青少年の特定のニーズに合わせて構築することもできます。 マインド、" ハーバード大学の博士課程の学生であるAvrielEpps-Darlingは、最近書いた. 「代わりに、10代の若者がアルゴリズムによる人種差別に対して脆弱である方法を軽視したり無視したりし続けると、害は今後何世代にもわたって反響する可能性があります。」
バイアスとの闘い
解決策が見つかるまで、一部の研究者は、偏ったアルゴリズムによって若者に与えられる被害を軽減する方法を見つけようとしています。
「介入は、10代の若者にソーシャルメディアのパターンが悪影響を及ぼしていることを認識させることに焦点を当ててきました。 彼らのメンタルヘルスとそれを軽減するための戦略を考え出そうとしている(例えば、ソーシャルメディアの使用を減らす)」とSteers 言った。
「私たちがインタビューした大学生の中には、外出したり投稿したりしたくない場合でも、「関連性のある」コンテンツを生成することを強いられていると感じている人もいます」と彼女は続けました。 「しかし、彼らはフォロワーや友人とのつながりを維持するためにコンテンツを生成する必要があると感じています。」
究極の答えは、コンピューターから人間の偏見を取り除くことかもしれません。 しかし、プログラマーは人間だけなので、それは難しい挑戦だと専門家は言います。
考えられる解決策の1つは、分散化され、学習したことを忘れるようにプログラムされたコンピューターを開発することです。 ジョンスーツ、最高技術責任者 ロボット工学会社KODA.
「分散型ネットワーク、データ、およびそのデータの分析を通じて、複数のポイントからコンパイルおよび分析されています」と、Suit氏は電子メールのインタビューで述べています。 「データは、アルゴリズムの範囲内の単一のAIマインド処理からではなく、数百または数千もの収集および処理されています。
「そのデータが収集され分析されると、古い「結論」や余分なデータは忘れられます。 このシステムを通じて、バイアスで始まった可能性のあるアルゴリズムは、それが間違っていることが判明した場合、最終的にそのバイアスを修正して置き換えます。」
バイアスは古くからの問題かもしれませんが、少なくともオンラインでそれと戦う方法があるかもしれません。 私たちの偏見を取り除くコンピューターを設計することが最初のステップです。