欧州議会がAI規制法案の修正案可決、使用明示など企業に透明性確保要求

●生成AIの急速な普及を踏まえ、包括的なAI規制を導入

●今後、EUのルールが国際的な議論の方向性を決める可能性

欧州議会は14日の本会議で、人工知能(AI)の利用に関する包括的な「AI規制法案」の修正案を賛成多数で可決した。対話型AI「チャットGPT」など生成AIの急速な普及を踏まえ、コンテンツがAIによって生成されたことを明示するなど、企業に透明性の確保を求める。法的拘束力を伴う包括的なAI規制は主要国・地域で初となり、欧州連合(EU)のルールが国際的な議論の方向性を決める可能性がある。今後はEU閣僚理事会、欧州委員会との協議に入り、年内の最終合意を目指す。

欧州委が2021年4月に発表した規則案では、人間の生命や基本的人権への影響をもとに、AI利用がもたらすリスクを4段階に分類し、それぞれに規制を設けた。例えば最も厳しい「容認できないリスク」には、政府がAIを用いて個人の信用力を格付けしたり(ソーシャルスコアリング)、犯罪捜査などを目的とした公共の場でのリアルタイムの顔認証などが該当し、こうしたシステムや技術の利用は原則として禁止される。

2番目に厳しい「高リスク」区分では、重要インフラや生体認証、企業の採用面接などで用いられるAIシステムや、ロボットを使った手術などが規制の対象となり、第三者機関による事前審査が義務付けられる。3番目の「限定的なリスク」では、言語分野でAI技術を利用する「チャットボット」などが対象となり、自動応答プログラムなどについてはAIシステムが利用されていることを明示する必要がある。4番目の「最小限のリスク」に分類されるのは第3区分までに含まれない大多数のAIシステムで、既存のルールを満たしていれば新たな対応は必要ない。

チャットGPTに代表される生成AIは22年に本格的な普及が始まったため、欧州委案ではほとんど言及されていない。このため欧州議会では、生成AIを利用したサービスを提供する企業に透明性の確保を求めた修正案が可決された。具体的にはコンテンツがAIによって生成されたことを明示するほか、違法なコンテンツの生成を防ぐモデルの設計や、生成AIの学習に著作権で保護されたコンテンツを使用した場合は、著作物に関する情報の開示を義務付ける。

このほか最も危険な容認できないリスクについても対象を拡大し、一般にアクセス可能な空間におけるリアルタイム情報を用いた遠隔生体認証システム、機密性の高い属性(性別、人種、民族、宗教、政治的指向など)を利用した生体情報に基づく分類システム、法執行機関・国境管理・職場・教育機関における感情認識システム、顔認識データベースを作成する目的でソーシャルメディアや監視カメラの映像から生体データを無差別に収集する行為などが禁止リストに追加された。

規制に違反した場合は最大で4,000万ユーロ、または全世界の売上高の7%の罰金が科される可能性がある。欧州委案では最大3,000万ユーロ、または世界売上高の6%となっていた。

法案が成立しても完全に適用されるのは26年頃になる見通し。技術開発の急速な進展に法整備が間に合わないため、EUは開発企業と協力して「AI協定」を策定する方針だ。域内外の企業が自主的に順守するルールを策定してAIがもたらすリスクに対応すると同時に、AIビジネスに対する投資環境を整える狙いがある。

上部へスクロール