欧州連合(EU)の欧州委員会は8日、人工知能(AI)の有効活用に向けた倫理指針を発表した。人間を主体とした「信頼できるAI」を目標に掲げ、実現するために順守すべき7項目の原則を明示した。今夏には企業や研究機関の協力を得て指針を検証するための試験段階に入り、国際的なルールづくりに向けた議論でEUが主導的役割を果たす考えだ。
AIは医療、省エネ、自動車の安全、農業、気候変動、金融市場のリスク管理、サイバーセキュリティ対策など幅広い分野で恩恵をもたらすと期待される一方、法的責任の所在など、倫理的・法律的な課題も指摘されている。欧州委はこうした倫理面のリスクを低減してAIの有効活用を促進するため、52人の専門家で構成する「AIハイレベルグループ」を創設。昨年12月に10項目から成る指針案を公表し、意見公募を経て7項目の倫理指針をまとめた。
指針はまず、AIは人間の監視の下で補完的な役割を担うもので、人間の自立性を損なうことがあってはならないと指摘。個人情報が差別などにつながらないよう、市民が自己に関するデータを完全に制御できるようにする必要性を訴えた。さらにAIがもたらす結果について、責任の所在を明らかにする仕組みの導入や、AIシステムの透明性の確保などを要件として挙げている。
倫理指針の試験運用にはEU域外からの参加も可能。AIハイレベルグループが来年初めに試験結果を検証する。欧州委はそれをもとに日本やカナダ、シンガポールなどと連携し、先進7カ国(G7)や20カ国・地域(G20)の枠組みで国際的な議論を前進させたい考えを示している。