- 덴마크 정부가 15세 미만 아동의 소셜미디어 접근을 전면 금지하는 방안을 발표, 디지털 환경에서의 아동 보호 강화 목적
- 일부 부모는 평가 절차를 거쳐 13세부터 접근 허용 가능하나, 구체적 집행 방식은 아직 미정
- 정부는 국가 전자신분증(e-ID)과 연령 확인 앱을 활용해 나이 검증을 강화하고, 미이행 시 글로벌 매출의 최대 6% 벌금 부과 계획
- 이번 조치는 EU 내 가장 강력한 청소년 보호 조치 중 하나로, 호주·중국 등 다른 국가의 규제 움직임과도 맞물림
- 정부는 유해 콘텐츠와 상업적 압력으로부터 아동을 보호하고, 기술기업의 책임 강화를 목표로 함
덴마크의 소셜미디어 접근 금지 계획
- 덴마크 정부는 15세 미만 아동의 소셜미디어 접근 금지에 합의했다고 발표
- 디지털 환경에서 아동이 유해 콘텐츠와 상업적 이해관계에 노출되는 문제를 이유로 제시
- 부모는 특정 평가 절차를 거쳐 13세부터 자녀의 접근을 허용할 수 있음
- 정부는 집행 방식이 아직 명확하지 않다고 밝혔으며, 기존 플랫폼의 연령 제한이 충분히 작동하지 않는다고 언급
아동의 온라인 이용 실태와 위험
- 덴마크 디지털 담당 장관 Caroline Stage는 13세 미만 아동의 94% , 10세 미만의 절반 이상이 이미 소셜미디어 계정을 보유하고 있다고 언급
- 아동이 온라인에서 폭력·자해 관련 콘텐츠에 과도하게 노출되고 있다고 지적
- Stage는 기술 대기업들이 막대한 자원을 보유하고 있음에도 아동 안전에 충분히 투자하지 않는다고 비판
입법 절차와 기술기업 규제
- 법안은 즉시 시행되지 않으며, 의회 통과까지 수개월 소요 예상
- 정부는 법적 허점을 남기지 않기 위해 신중히 추진하겠다고 밝혔음
- 덴마크는 전자신분증(e-ID) 을 기반으로 한 연령 확인 앱을 도입할 예정이며, EU 내 다른 국가들도 유사한 앱을 시험 중
- 기술기업이 이를 사용하지 않을 경우, EU 집행위원회를 통해 글로벌 매출의 최대 6% 벌금을 부과할 수 있음
국제적 맥락과 비교
- 호주는 2023년 12월 16세 미만 아동의 소셜미디어 이용 금지법을 통과시켜, 위반 시 최대 5천만 호주달러(약 3,300만 달러) 의 벌금을 부과
- 중국은 온라인 게임 및 스마트폰 사용 시간 제한을 시행 중
- 프랑스에서는 TikTok이 자살 조장 콘텐츠를 허용했다는 혐의로 검찰 조사가 진행 중
아동 보호와 기술기업의 대응
- 덴마크 정부는 이번 조치가 디지털 기술 자체의 배제가 아니라 유해 콘텐츠 차단을 위한 것이라고 설명
- TikTok은 이메일 성명을 통해 청소년 계정용 50개 이상의 안전 기능과 Family Pairing 도구를 운영 중이라고 밝힘
- Meta(Instagram·Facebook 모회사)는 즉각적인 입장을 내놓지 않음
- Stage는 “기술기업들이 스스로 문제를 해결하지 않았기 때문에 정부가 직접 개입할 것”이라고 강조
배경 및 의미
- 덴마크 정부는 이번 조치를 통해 아동의 수면, 집중력, 정신 건강에 영향을 주는 디지털 압력 완화를 목표로 함
-
EU 디지털서비스법(DSA) 은 이미 13세 미만의 소셜미디어 계정 생성을 금지하고 있으며, 이번 조치는 그보다 강화된 형태
- 정부는 기술기업의 책임 강화와 아동 보호 체계 확립을 핵심 목표로 제시