
최근 유럽 여러 나라가 소셜미디어 대형 플랫폼을 겨냥하여 유해 콘텐츠, 중독성 설계, 청소년 안전 문제에 대한 조사를 강화하고 규제 논의를 활발히 전개하고 있다.
특히 스페인, 아일랜드, 영국 등이 잇달아 관련 조치를 발표하며, EU 차원의 디지털 서비스 법(DSA) 집행과는 별도로 각국이 ‘선제 대응’에 나서는 모습을 보이고 있다.
이번 움직임의 핵심은 "플랫폼에게만 맡겨둔 자율규제에는 한계가 있다"는 현실 인식에 기반하고 있다.
스페인은 소셜미디어 플랫폼인 X, 메타, 틱톡을 대상으로 AI로 생성된 불법 및 유해 콘텐츠 유통에 관한 강력한 조치를 시행하기 시작했다. 아일랜드의 규제 당국은 X의 AI 챗봇과 관련된 조사에도 착수한 것으로 알려졌습니다.
유럽 내부에서는 청소년 보호를 강조하며 연령 제한, 즉 청소년의 소셜미디어 이용을 제한하는 논의도 진행되고 있다.
이러한 조치들은 앞으로 더욱 살펴볼 필요가 있다. 그러나 미국에 본사를 둔 기업들이 주 대상으로 부각되면서, 유럽의 이러한 움직임이 대서양을 가로막는 긴장 요소가 될 것으로 우려하는 목소리도 있으며, 이는 국제 관계에 미치는 영향이 클 것으로 예상된다.
전문가들은 향후 쟁점이 단순한 단속 활동을 넘어, 의무화된 안전장치의 표준으로 전환될 가능성이 크다고 전망하고 있다.
이는 △유해 콘텐츠 탐지 및 차단의 최소 기준 △신고 후 처리 시간 △청소년 계정의 기본 설정(노출 제한 등) △AI 생성물의 표시 및 검증 체계 등의 항목이 “권고”가 아닌 규제 준수의 필수 항목으로 구체화될 가능성을 나타낸다.
이러한 변화들은 소셜미디어 플랫폼의 운영 방식에 큰 영향을 미칠 것으로 보이며, 이는 결국 사용자의 안전과 권리를 보호하기 위한 방향으로 나아가게 될 것으로 보인다. 유럽의 규제 강화는 앞으로의 디지털 환경에서 중요한 이정표가 될 것으로 기대된다.


















