欧州議会の域内市場・消費者保護委員会と市民の自由・司法・内務委員会は11日、人工知能(AI)の利用に関する包括的な規制案を承認した。6月の本会議で採択される見通し。その後、EU閣僚理事会と欧州委員会を加えた3者間で協議を重ね、年内の最終合意を目指す。法的拘束力を伴うAIの包括的な規制は主要国・地域で初となり、EUのルールが事実上の世界標準となる可能性がある。
欧州委が2021年4月に発表した規則案では、人間の生命や基本的人権への影響をもとに、AIがもたらすリスクを4段階に分類。最も厳しい「容認できないリスク」では、政府がAIを用いて個人の信用力を格付けするシステムの運用や、犯罪捜査などを目的とした公共の場でのリアルタイムの顔認証が原則禁止される。2番目に厳しい「高リスク」区分では、重要インフラや生体認証、企業の採用面接などで用いられるAIシステムや、ロボットを使った手術などが規制の対象となり、第三者機関による事前審査が義務付けられる。
3番目の「限定的なリスク」では、言語分野でAI技術を利用する「チャットボット」などが対象となる。自動応答プログラムなどではAIシステムが利用されていることを明示する必要がある。4番目の「最小限のリスク」に分類されるのは第3区分までに含まれない大多数のAIシステムで、既存のルールを満たしていれば新たな対応は必要ない。
違反した場合は最大で3,000万ユーロ、または全世界の売上高の6%の罰金が科される可能性がある。
欧州議会の両委員会では、このうち3番目の限定的なリスクに該当するチャットボットなどの生成AIについて、企業側により高い透明性の確保を求めた修正案が承認された。具体的にはコンテンツがAIによって生成されたことを明示するほか、違法なコンテンツを生成しないようにモデルを設計し、トレーニングに使用した著作物に関する情報を公開することなどが義務付けられる。
このほか最も危険な容認できないリスクについても対象を拡大し、一般にアクセス可能な空間におけるリアルタイムの遠隔生体認証システム、機密性の高い属性(性別、人種、民族、宗教、政治的指向など)を利用した生体情報に基づく分類システム、法執行機関・国境管理・職場・教育機関における感情認識システム、顔認識データベースを作成する目的でソーシャルメディアや監視カメラの映像から生体データを無差別に収集する行為などが禁止リストに追加された。