このコースもほぼ終了に近づきました。ここまでで、AIがデータの関係性を見つけ出し、人間の行動の一部を再現するモデルを訓練するための、いくつかの正式な数学的手法に基づいていることが明確に理解できたと思います。この時点で、AIはデータからパターンを抽出し、それを新しい問題解決に応用する非常に強力なツールであると考えられています。
しかし、SFではAIが人類に危険をもたらすという物語がよく描かれます。通常、これらの物語はAIの反乱、つまりAIが人間に対抗することを決意するという内容が中心です。これは、AIが何らかの感情を持ち、開発者が予期しない決定を下すことができることを示唆しています。
このコースで学んだAIは、大規模な行列演算に過ぎません。それは私たちの問題解決を助ける非常に強力なツールですが、他の強力なツールと同様に、良い目的にも悪い目的にも使用される可能性があります。重要なのは、それが誤用される可能性があるということです。
AIの偶発的または意図的な誤用を防ぐために、Microsoftは重要な責任あるAIの原則を掲げています。以下の概念がこれらの原則を支えています:
- 公平性は、モデルのバイアスという重要な問題に関連しています。これは、バイアスのあるデータを使用して訓練することで引き起こされる可能性があります。例えば、ある人がソフトウェア開発者の職に就く確率を予測しようとする場合、訓練データセットが男性に偏っている可能性が高いため、モデルは男性を優先する傾向があります。訓練データを慎重にバランスさせ、モデルを調査してバイアスを回避し、より関連性の高い特徴を考慮するようにする必要があります。
- 信頼性と安全性。AIモデルはその性質上、間違いを犯す可能性があります。ニューラルネットワークは確率を返すため、意思決定の際にそれを考慮する必要があります。すべてのモデルには精度と再現率があり、それを理解して誤った助言が引き起こす可能性のある害を防ぐ必要があります。
- プライバシーとセキュリティには、AI特有の意味合いがあります。例えば、モデルを訓練するためにデータを使用すると、そのデータが何らかの形でモデルに「統合」されます。一方ではセキュリティとプライバシーが向上しますが、他方ではモデルがどのデータで訓練されたかを覚えておく必要があります。
- 包括性は、人々を置き換えるためではなく、人々を補完し、私たちの仕事をより創造的にするためにAIを構築していることを意味します。また、公平性にも関連しており、過小評価されているコミュニティに対処する際、収集するデータセットの多くが偏っている可能性が高いため、それらのコミュニティがAIによって正しく扱われるようにする必要があります。
- 透明性。これには、AIが使用されていることを常に明確にすることが含まれます。また、可能な限り、解釈可能なAIシステムを使用したいと考えています。
- 説明責任。AIモデルが何らかの決定を下す場合、その決定に対する責任が誰にあるのかが必ずしも明確ではありません。AIの決定に対する責任がどこにあるのかを理解する必要があります。ほとんどの場合、重要な決定を下す際に人間を関与させ、実際の人々が責任を負うようにしたいと考えています。
Microsoftは、以下のツールを含むResponsible AI Toolboxを開発しました:
-
Interpretability Dashboard (InterpretML)
-
Fairness Dashboard (FairLearn)
-
Error Analysis Dashboard
-
Responsible AI Dashboard(以下を含む)
- EconML - 因果分析のためのツールで、What-ifの質問に焦点を当てています
- DiCE - 反事実分析のためのツールで、モデルの決定に影響を与えるためにどの特徴を変更する必要があるかを確認できます
AI倫理についての詳細は、課題を含む機械学習カリキュラムのこのレッスンをご覧ください。
責任あるAIについてさらに学ぶには、この学習パスを受講してください。
免責事項:
この文書は、AI翻訳サービス Co-op Translator を使用して翻訳されています。正確性を追求しておりますが、自動翻訳には誤りや不正確な部分が含まれる可能性があることをご承知ください。元の言語で記載された文書が正式な情報源とみなされるべきです。重要な情報については、専門の人間による翻訳を推奨します。この翻訳の使用に起因する誤解や誤解について、当社は責任を負いません。