世界

AIは偏っています。科学者が修正しようとしている方法は次のとおりです

近年、コンピューターは人工知能の飛躍的な進歩のおかげで、世界をより明確に見ることができるようになりました。しかし、これらのAIアルゴリズムが実際にあなたをどう思っているかを知って驚いたり、動揺したりするかもしれません。 最近の実験が示したように、最高のAIビジョンシステムはあなたの顔の写真を見て、人種のスラー、性別のステレオタイプ、またはあなたの良いキャラクターを傷つける用語を吐き出すかもしれません。

マシンの指導を支援した科学者は、レッスン中に使用したデータに潜む人間の偏見の一部を取り除きました。これらの変更は、AIがより公平に物事を見るのに役立つと彼らは言う。しかし努力の結果、AIシステムからの偏りを取り除くことは依然として困難であることが示されました。 「深く掘り下げると、考慮すべきことがたくさんあります」と、プリンストンの助教授であるオルガ・ルサコフスキーは言います。

このプロジェクトは、隠れた偏見や偏見の自動化されたシステムを改善するための広範な取り組みの一部です。 AIは非常に迅速に展開されており、深刻な影響を与える可能性があるため、これは重大な問題です。バイアスは顔認識システム採用プログラム、およびウェブ検索の背後にあるアルゴリズム。ビジョンシステムは、監視システムがマイノリティを犯罪者と誤認する可能性が高くなる監視などの重要な分野で採用されています。

In2012、ImageNetと呼ばれるプロジェクト*)AIの可能性を解き放つ上で重要な役割を果たしたのは、花からスノーボーダーまで、視覚的な概念を認識するコンピューターをトレーニングするための膨大なライブラリを開発者に提供することです。スタンフォード、プリンストン、ノースカロライナ大学の科学者は、メカニカルターカーズに少額を支払って無数の画像、徐々に無料でリリースした膨大なデータセットを蓄積します。

このデータセットが大規模なニューラルネットワークに供給されたとき、物事を驚くほど正確に識別できる画像認識システムを作成しました。アルゴリズムは、子犬のテクスチャや形状を構成するピクセルなど、高レベルの概念を明らかにするパターンを特定するために多くの例から学びました。 ImageNetを使用して開発されたアルゴリズムをテストするために開始されたcontestは、最高のディープラーニングアルゴリズムが画像を人だけでなく正しく分類することを示しています。 ImageNetに基づいて構築されたシステムの成功は、AIへの興奮と投資の波を引き起こし、他の分野の進歩とともに、高度なスマートフォンカメラや自動化された車両などの新しい技術の先駆けとなりました。

しかし、その後数年で、他の研究者がImageNetデータに潜む問題を発見しました。データでトレーニングされたアルゴリズムは、たとえば、「プログラマー」とラベル付けされた画像のプールが歪んでいたため、プログラマーが白人男性であると仮定するかもしれません方法。 と呼ばれる最近のバイラルWebプロジェクト、また強調表示 )ImageNetに追加されたラベルの偏見。「放射線技師」や「操り人形師」などから、「黒人」や「妖精」などの人種的な中傷まで。プロジェクトのWebサイト(現在はオフラインになっている)を通じて、人々は写真を送信し、データセットを使用してトレーニングされたAIモデルに潜む用語を確認できます。これは、ラベルを追加する人が「教師」や「女性」などのラベルに加えて軽de的な言葉や言葉を追加した可能性があるためです。

ImageNetチームはデータセットを分析してこれらを明らかにしましたおよびその他のバイアスの原因を特定し、それらに対処するための措置を講じました。クラウドソーシングを使用して、軽words的な言葉を特定して削除しました。また、「慈善家」など、イメージに意味を投影する用語を特定し、AIトレーニングから用語を除外することを推奨しました。

チームは、ImageNetの人口統計および地理的多様性も評価しました。写真を作成し、より多様な画像を表示するツールを開発しました。たとえば、通常、「プログラマー」という用語は、コンピューターの前で白人男性の写真を大量に生成する場合があります。しかし、グループが今後数か月以内にリリースする予定の新しいツールを使用すると、性別、人種、および年齢の面でより多様性を示す画像のサブセットを生成し、AIアルゴリズムのトレーニングに使用できます。

努力AIをゼロからリエンジニアリングして、より公平な結果を生み出す方法を示しています。しかし、AIが人間のトレーニングにどのように依存しているかを強調し、バイアスの問題がしばしばいかに困難かつ複雑であるかを示しています。

「これは素晴らしい努力だと思います」 Andrei Barbu、MITの研究科学者で、調査済みImageNet。しかし、Barbuは、データセット内の画像の数が、バイアスをどの程度除去できるかに影響を与えると指摘しています。これは、例が少なすぎてバランスを取ることができないためです。バイアスを取り除くと、特に人種、性別、年齢などの複数のタイプのバイアスを考慮しようとしている場合、データセットの有用性が低下する可能性があります。 「特定の偏りのないデータセットを作成すると、データは非常に迅速に小さなものに切り分けられ、ほとんど何も残されません」と彼は言います。

ルサコフスキーは問題が複雑であることに同意します。彼女は、さまざまな文化が世界をどのように見ているかを考えると、真に多様な画像データセットがどのように見えるかさえ明確ではないと言います。しかし、最終的に、彼女はAIをより公平にする努力が報われると考えています。 「自動化された意思決定がより公平になると楽観的です」と彼女は言います。 「人間の脱バイアスはAIシステムの脱バイアスよりも困難です。」


さらに素晴らしいWIREDストーリー

Related Articles

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

Close