欧州委員会は1日、ネット上に蔓延する違法コンテンツを排除するため、ソーシャルメディアや検索エンジンなどのオンラインプラットフォームが講じるべき具体策を発表した。違法コンテンツのうち、テロ組織によるプロパガンダやテロを煽るようなメッセージや動画などを最も有害なコンテンツと位置づけ、ユーザーから通報があった場合、1時間以内に削除することなどを求める内容。欧州委はプラットフォーム事業者に対し、勧告に沿って3カ月以内に対策を講じるよう求めており、対応が不十分な場合は新たな規制の導入を検討すると警告している。
フェイスブック、ツイッター、マイクロソフト、グーグル傘下のユーチューブは2016年5月、EUとヘイトスピーチ対策で合意し、ヘイトスピーチの削除要請を受けた場合、原則として24時間以内に投稿内容をチェックし、違法と判断したコンテンツを削除するか、閲覧できないようにすることなどを盛り込んだ行動規範に署名した。ただ、行動規範に法的拘束力はないため、違反企業に対する制裁を盛り込んだEUレベルの規制を求める声が高まり、欧州委は昨年9月に憎悪や暴力、テロ行為を煽るような違法コンテンツを排除する取り組みを促す新たな指針を発表。数カ月にわたって関係各社の対応を監視し、必要に応じて法制化を含む追加措置を検討すると表明していた。
欧州委のアンシップ副委員長(デジタル単一市場担当)は声明で「オンラインプラットフォームは多くの人にとって情報収集の入り口になっており、ユーザーに対して安全な環境を提供する責任を負っている。オフラインで違法なものはオンライン上でも違法だ。自主規制が機能して一部のプラットフォームは違法コンテンツを排除する取り組みを強化しているが、EU市民の安全や基本的人権を脅かす有害コンテンツに対してより迅速な対処が求められる」と述べた。
勧告によると、フェイスブックやグーグルなどのオンラインプラットフォームはテロ関連のコンテンツに関してユーザーから通報を受けた際、速やかに内容を確認して違法と判断した場合は1時間以内に削除することが求められる。また違法コンテンツの自動検出技術や、ユーザーが簡単な手順で有害コンテンツを通報できるシステムも導入する必要がある。このほか違法コンテンツを報告するユーザーが信頼できる情報提供者(trusted flagger)である場合、通報の手順を簡素化することや、プラットフォーム側が違法コンテンツと誤認して削除した場合に備え、救済措置を整備することなどを求めている。