ジャカルタ: インドネシアは土曜日、16歳未満のユーザーが高リスクと分類されるデジタルプラットフォームでアカウントを保有することを禁止するソーシャルメディア規制の施行を開始した。この措置は、数百万人の子供たちのアクセス、執行、アカウント削除に関して、直ちに疑問を投げかけるものとなった。この規則は通信省が指定した8つのサービスを対象としており、インドネシアは広範囲にわたる規制改革の最前線に立つことになるが、施行開始時点ではその実際的な影響はまだ不明である。

法的枠組みは、電子システムにおける児童保護に関する政府規則第17/2025号の実施規則として、3月6日にジャカルタで公布された大臣令第9/2026号に基づいている。この規則は、オンラインアクセスに年齢区分を設け、ソーシャルネットワーキングとソーシャルメディアを、再分類されない限りデフォルトで高リスクとして扱う。13歳未満の児童は、親の同意がある場合に限り、児童向けに設計された低リスクのサービスでのみアカウントを保有できる。13歳以上16歳未満の児童も、親の同意がある場合に限り、低リスクのサービスでのみアカウントを保有できる。
今月発令された別の大臣令では、Instagram、Facebook、Threads、 TikTok 、YouTube、Bigo Live、Roblox、Xが高リスクサービスとして指定されている。この大臣令では、事業者に対し、公開されている最低年齢制限を調整し、その制限を下回るアカウントを停止し、停止方法と異議申し立て方法を説明するユーザーガイドラインを発行し、実施状況を報告することを義務付けている。この命令では、対象となる子供用アカウントの停止は3月28日から段階的に進められるとされており、主要なグローバルプラットフォーム全体に及ぶコンプライアンス対策の規模が強調されている。
展開の詳細が不明瞭なまま
導入開始当初は、大きな不確実性が伴った。実施前にインタビューを受けた親や子供たちは、未成年者のアカウントが自動的に削除されるのか、それとも新たな認証プロセスを経て処理されるのか、まだ分かっていないと述べている。通信大臣は、プラットフォームのコンプライアンスを確保し、アカウントの停止を確実に行うのは難しいと認めている一方、公式ガイダンスでは、既存のアカウントをどのように特定するのか、異議申し立てを実際にどのように処理するのか、段階的な削除にどれくらいの時間がかかるのかといった点については、明確な回答が得られていない。
この曖昧さは、世界最大規模かつ最もインターネット接続が進んでいる市場の一つであるインドネシアにおいて重要な意味を持つ。インドネシアの人口は約2億8000万人で、 政府は今回の制限措置が約7000万人の子供に適用されると発表した。同国のインターネットプロバイダー協会によると、インターネット普及率は2025年には80.66%に達し、13歳から28歳のZ世代では87.8%に達すると予測されている。こうした状況下で、突然のアカウント停止は、娯楽や社会交流だけでなく、時間の大部分をオンラインで過ごす世代の日常的なデジタル習慣にも影響を及ぼす。
日常的な使用に幅広く対応
この規制は一部の見出しが示唆するほど限定的なものではないが、その影響範囲は依然として広範囲に及ぶ。16歳未満のすべての人に対するあらゆるデジタルサービスの全面禁止ではない。それでも、ソーシャルネットワーキングとソーシャルメディアは、この規則の下では高リスクとみなされており、対象となるプラットフォームには、インドネシアの家庭で広く利用されている動画、ライブストリーミング、ゲームサービスが含まれる。Google は、YouTubeから16歳未満のアカウントを削除すると知識のギャップが広がる可能性があると述べ、複数の企業は、期限が迫る中、政府の要件への対応にまだ取り組んでいると述べた。
TikTok 、X、Meta、Robloxなどの企業は、規制遵守に向けた措置を講じていると述べているが、施行初日には最も重要な疑問が未解決のまま残されている。大規模な年齢確認がどのように機能するのか、どれだけのアカウントが無効化されるのか、そして手続きがまだ明確化されていない中で、子供や親がアカウント削除を必要とするシステムをどのように利用していくのか、といった点だ。数千万人の若いユーザーを対象としたこのポリシーは、広範な制限、不完全なガイダンス、そしてその仕組みについて一般の人々が明確な回答を得る前に開始された展開という、現状の状況を如実に物語っている。 –コンテンツシンジケーションサービスより。
インドネシアが16歳未満のソーシャルメディア規制を施行したという記事は、Arabian Observerに最初に掲載されました。
