責任あるAIイノベーションとAIガバナンスフレームワークのためのグローバルベストプラクティス

AIの急速な進歩により、新しいイノベーションは必然的に、その使用を規制するグローバル政府の能力を超えています。規制への対応が難しい場合、AIテクノロジーを放っておくと、基本的権利や自由が侵害される恐れがあります。最も差し迫ったリスクには以下が含まれます。
プライバシー:AIシステムは膨大な量の個人データを処理できるため、データがどのように使用され保護されるかに関する懸念が生じます。
バイアス:AIアルゴリズムは、トレーニングデータに存在するバイアスを不注意に長引かせる可能性があり、「アルゴリズムの牢獄」 、つまり個人やシステムがアルゴリズムによって生成された決定に閉じ込められたり拘束されたりする状況を生み出します。多くの場合、そのような結果を理解したり異議を唱えたりすることはできません。
自律:意思決定プロセスで使用されるAIシステムは、適切に設計されていないと個人の自律性が損なわれる可能性があります。
世界中の政府は、新しいテクノロジーにケースバイケースで事後対応的に対処するのではなく、先を見越してこれらの課題に対処する方法を模索するAIガバナンスフレームワークを開発しています。フレームワークが不足している、または開発する必要のある地域では、これらの政府はまずAIの原則を設定します。これらのフレームワークは、AIテクノロジーの安全性、セキュリティ、公平性、透明性をサポートするための基準要件とプロトコルを定めることで、最新の開発に遅れることなく、安全で責任あるAIイノベーションを育む環境を作り出すことを目的としています。
この記事では、AIガバナンスの進化する状況を詳しく調べ、世界中のさまざまな政府がこれらの課題にどのように対処しているかを明らかにします。
欧州連合のAI法がグローバル基準に
2018年、 EU AI Alliance は6,000人以上のステークホルダーを集めて 倫理原則 を定め 、世界中で信頼できる使用に関する 公開対話 を行うプロセスを開始しました。6年後、EUの 人工知能法 は、AIテクノロジーに関連するリスクを管理するための特別に設計された世界初の包括的な法的枠組みとして、6か月から36か月かけて段階的に導入される条項を定めました。
AI法は、AIの開発と展開において人間中心のアプローチを重視しており、AIはそれ自体が目的ではなく、人間の繁栄を強化し、社会的幸福を促進するためのツールでなければならないという理念に従っています。そのために、次のようなコア原則を定めています。
有害なAIプラクティスの禁止:AI法では、人の意思決定を操作したり、その脆弱性を悪用したり、社会的行動や個人的特性に基づいて人を評価したり、犯罪リスクを予測したりするなど、許容できないリスクのあるAIシステムを使用することを禁じています。また、顔画像のターゲットを絞らないスクレイピング、職場や学校での感情の推測、生体データに基づく個人の分類システムも禁止します。
リスク分類に基づく規制の実施:製品安全コンポーネントとして使用されるものや、それ自体がEUの法規制の対象となる製品を含む、高リスクのAIシステムは、義務が強化されます。チャットボットなどの限定的なリスクのAIシステムは透明性の義務が軽く、最小限のリスクのシステム(AI対応ビデオゲームやスパムフィルターなど)はほとんど規制されていません。
透明性の確保:AIシステムは、プロバイダー、システムの機能および制限、潜在的なリスクに関する詳細を含む明確な指示を提供し、透明性を確保するよう設計する必要があります。企業は、明白な場合や犯罪検知などの法的目的を除き、AIシステムを操作するときにユーザーにその旨を知らせる必要があります。
イノベーションをサポートする手段の作成:EUは加盟国に対し、市場投入前にAIシステムを開発、テスト、検証できる「AI規制サンドボックス」の設置を求めています。中小企業やスタートアップ企業は、これらのサンドボックスを優先的に利用できるようになります。
欧州のAIガバナンスに対する積極的な姿勢は、規制基準設定におけるグローバルリーダーとしての地位を確立しており、今後数か月かけて多くの追加国が同様のガバナンスフレームワークの採用を予定しています。
米国は責任あるAIイノベーションの4つの柱を優先
米国は、過去の政権による包括的なAIガバナンスの枠組みの構築に向けた取り組みを引き続き強化してきました。当初、いくつかの連邦部門は国防総省の 責任あるAI原則 やエネルギー省の AIリスク管理プレイブックなどの原則を定めました。最近、ホワイトハウスは AI権利章典 を公開し、開発の指針としました。その中心にあるのが、AIの導入に伴う潜在的なリスクを軽減し、イノベーションを促進できる環境を育てるための、継続的な法律と行政命令の改正です。米国は、責任あるAIイノベーションの4つのコアピラーをフレームワークの基盤として重視しています。
安全性:AIの安全性を確保するには、厳格なテスト手順、認定要件、継続的な監視と評価の仕組みが必要です。
セキュリティ:AIシステムをサイバー脅威、不正アクセス、悪意のある使用から守るには、セキュリティ上の考慮事項が最も重要です。これには、データ保護、暗号化プロトコル、敵対的攻撃に対するレジリエンスの基準を定めることが含まれます。
資産:エクイティ・イン・AIデベロップメントは、差別や公平な結果を永続させる可能性があるアルゴリズムのバイアスを防止することを目的としています。これには、AIの研究開発の多様性の促進、代表的なデータセットの確保、公平性とアカウンタビリティの確保が含まれます。
透明性:透明性の確保には、AIシステムを理解し、説明できるようにする必要があります。これにより、ユーザー、規制当局、一般の人々を含むステークホルダーは、AIに関する意思決定がどのように行われるかを把握し、信頼性と公平性を評価することができます。このように、透明性は信頼につながります。
これらのAIガバナンスの柱は、あらゆる業界のイノベーションを可能にし、スタートアップ企業や起業家にとっての機会を生み出しています。さらに、データサイエンティスト、機械学習エンジニア、AI倫理学者、AIトレーナーの需要が急増するなど、AIシステムの監督、解釈、管理に関わる新しい職務も生まれています。適切な対策が実施されれば、AIは人間の能力を増強し、新たな雇用機会を生み出す可能性があります。これは、AIによって仕事がなくなるという不安とは対照的な有望な現実です。
実際の責任あるAIイノベーションの例
カスタマーサービス向けの生成AIソリューションは、体系的なAIガバナンスフレームワークによって育成できる、責任ある人間中心のイノベーションの好例です。
コールセンターでは、大量のコールを管理することが大きな課題となる場合があります。つまり、包括的な自動音声応答システムでは、電話メニューが長くなる可能性がありますが、人的エージェントへのコールのルーティングにははるかにコストがかかり、待ち時間が長くなります。顧客が直面するさまざまな問題に対処するために、エージェントは多くの場合、何十ものアプリケーションを画面に表示したまま、絶えず切り替えながら作業しなければなりません。また、人間のエージェントが処理するコールの多くは、そもそも自動化で簡単に処理できるものでした。AIや機械学習が解決策になるかもしれません。
どのように機能するか?機械学習を使用すると、顧客がそれまでにビジネスとやり取りしたすべての情報に基づいて、顧客が何について話しているかを予測することができます。通話内容に応じて、生成AIチャットボットにルーティングして顧客とコミュニケーションをとり、問題を解決するか、人間のエージェントにルーティングして必要なコンテキストを事前に受信します。顧客がエージェントに問題を報告する前に、機械学習によって顧客のコール理由を正確に予測できれば、最初のコールの解決につながり、運用コストと処理時間が大幅に削減されます。
企業は Snowflake Cortexを使用することで、トレーニングデータ、メタデータ、生成AIモデル、プロンプトを非公開にすることができます。エージェントがプライベートな健康情報から内国歳入庁のデータまで、あらゆるものを処理している様子を想像してみてください。
責任と信頼性のあるAIを構築するには、プライバシーの維持が極めて重要です。MLと生成AIを活用したソリューションは、人間のエージェントの置き換えではなく支援に焦点を当てることで、責任あるAIイノベーションが関連リスクを軽減しながら社会の改善にどのように役立つかを示す好例となっています。
AIを規制する競争
世界中で、AI規制に対するアプローチは異なります。一部の企業は、ソフトAI規制アプローチがAIビジネスと投資を引き付け、維持すると考え、「様子見」戦略を採用しています。また、確立されたベストプラクティスを優先し、安全で倫理的なAIシステムの先駆けを目指す、先を見越して戦略を採る企業もあります。EUのAIフレームワークは、人間が常に連携して重要な意思決定を行う必要があるという確固たる立場をとっています。
どのような規制アプローチを採用するかにかかわらず、政府はAIシステムの真のメリットと結果を比較検討しています。グローバルな原則、枠組み、法律にまたがる新たなテーマは、AIシステムがすべての国民の生活に影響を与えるという認識です。これは、AIシステムがユーザーの生産性を大幅に向上する可能性も示しています。
AI規制の強化に取り組むことで、AIの可能性を活用しながらリスクを軽減するための先を見越したアプローチが浮き彫りになります。これらの規制の取り組みは、安全性、セキュリティ、公平性、透明性に重点を置き、革新的で競争力のあるだけでなく、倫理的で社会全体に対する説明責任を果たすAIエコシステムの育成を目指しています。