ケーススタディ 次の質問には次のように答えてください。 米国の中規模ヘルスケア ネットワークは、成人に発生する可能性が最も高いタイプの癌を検出するための AI ソリューションを開発することを決定しました。具体的には、ヘルスケア ネットワークは、すべての画像の初期レビューを実行し、合意された基準 (しきい値を下回る信頼スコアなど) に従って、記録を放射線科医に転送して二次レビューを行う認識アルゴリズムを作成する予定です。 現在までに、ヘルスケア ネットワークは、AI 倫理原則の定義、システムの想定される使用方法と成功基準を特定するための調査の実施、AI ガバナンス委員会の設立、明確な役割と責任を持つ幅広い部門横断型チームの編成、プロジェクト期間中の標準、ワークフロー、タイムライン、リスクしきい値を文書化するポリシーと手順の作成などの手順を実行しました。 ヘルスケア ネットワークは、ソリューションをホストするクラウド プロバイダーと、ヘルスケア ネットワークの既存のデータと米国の大手臨床研究パートナーからライセンスを受けた匿名化されたデータを使用してアルゴリズムの開発を支援するコンサルティング会社を雇う予定です。 AI ソリューションのトレーニングとテストの前に、差別の可能性を最も効果的に軽減できる手順はどれですか?
正解:C
AI ソリューションをトレーニングおよびテストする前に、影響評価を実行することが差別の可能性を軽減するための最善のステップです。データ保護影響評価 (DPIA) やアルゴリズム影響評価 (AIA) などの影響評価は、AI システムから生じる可能性のある潜在的な偏見や差別的な結果を特定するのに役立ちます。このプロセスには、公平性、説明責任、透明性についてデータとアルゴリズムを評価することが含まれます。これにより、データ内の偏見が検出され、対処されるため、差別的な慣行が防止され、倫理的な AI の展開が促進されます。参考: 倫理的な AI と影響評価に関する AIGP 知識体系。