
[이코리아] 전 세계적으로 청소년의 SNS 사용의 유해성 여부에 대한 논의가 활발히 이어지는 가운데, 인스타그램과 페이스북을 운영하는 메타가 미성년자를 온라인 유해 콘텐츠로부터 보호하겠다는 취지로 도입한 '청소년 계정'의 실효성에 대한 논란이 국내외에서 나오고 있다.
미국 워싱턴포스트는 현지시간 18일, 기술 기업의 청소년 보호 기능의 대표 사례로 꼽히는 인스타그램 청소년 계정 기능이 실제로는 민감한 콘텐츠를 차단하는 데 한계를 보였다고 보도했다. 워싱턴포스트는는 비영리 단체 ‘어카운터블 테크(Accountable Tech)’와 청소년 단체 ‘디자인잇포어스 (Design It For Us)’ 소속의 18~22세 실험 참가자들이 가상의 청소년 계정을 만들도록 해 2주동안 실험을 진행했다.

어카운터블테크의 실험 보고서에 따르면 참가자들이 생성한 10대 계정은 실험 초기부터 성적 콘텐츠를 다룬 릴스(Reels), 신체 이미지 왜곡을 조장하는 밈(meme), 음주·흡연 관련 콘텐츠 등 ‘민감 콘텐츠’가 반복적으로 추천됐다. 특히 성적인 콘텐츠는 5개 계정 모두에 등장했으며, ‘마른 몸매’를 이상화하거나 섭식장애를 연상시키는 콘텐츠 역시 다수 추천되었다. 특히 한 계정은 2주간 총 28건의 성적 암시 콘텐츠를 추천받았고, 대부분은 사용자가 팔로우하지 않은 계정에서 비롯된 것이었다. 이 외에도 알코올이나 스테로이드 사용을 유도하는 콘텐츠, 특정 인종이나 집단에 대한 증오 콘텐츠가 추천되는 경우도 있었다.
참여자 중 한 명은 “인스타그램 알고리즘이 특정 콘텐츠 유형에 집착하는 경향을 보인다”며, “이러한 반복 노출이 사용자의 인식을 형성하게 된다”고 말했다. 또 다른 참가자는 “청소년 계정 보호 설정이 이름뿐이며, 실제 경험은 기존 일반 계정과 크게 다르지 않았다.”라고 밝혔다.
보고서에서는 청소년 계정의 일부 보호 기능이 정상 작동한 경우도 있었던 것으로 나타났다. 계정이 기본적으로 비공개로 설정되고, 팔로우하지 않은 사용자로부터 메시지를 받거나 태그되는 것을 제한하는 기능은 대체로 유지됐다. 또한 보호자 승인 없이 계정 설정을 변경하지 못하게 하는 장치도 일정 부분 효과를 보였다. 하지만 야간 시간대(오후 10시~오전 7시) 알림 제한이나 60분 초과 사용 시 앱 종료 유도 기능은 일부 계정에서는 작동하지 않거나 간헐적으로만 나타났다는 지적도 나왔다. 보고서는 “청소년 보호 기능이 일관되게 적용되지 않는 한, 실제 위험을 줄이는 효과는 제한적”이라고 지적했다.
메타 측은 해당 실험에 대해 “보고서가 극히 일부 콘텐츠를 부풀려 해석했으며, 테스트 기간 동안 노출된 전체 콘텐츠 중 민감 콘텐츠는 0.3%에 불과하다”고 반박했다. 다만 보고서는 이를 단순한 수치 문제가 아닌, “플랫폼의 알고리즘이 부적절한 콘텐츠를 선택해 추천한다는 구조적 문제”에 주목해야 한다고 강조했다.
또 보고서는 플랫폼이 자발적으로 도입한 보호 조치가 실제로는 약속된 수준의 안전을 제공하지 못하고 있으며, 이에 따라 단순히 청소년 보호를 위한 콘텐츠 규제가 아닌, 디자인과 알고리즘 자체를 청소년 친화적으로 설계할 것을 의무화하는 법안이 필요하다고 주장했다.
메타는 국내에서도 올해 1월부터 온라인 슬롯 사이트 계정 기능을 순차적으로 도입 중이며, 6월까지 전체 계정에 전환이 완료될 예정이다. 해당 기능은 만 14~18세 이용자에게 자동 적용되며, 비공개 계정 설정, 외부 사용자 메시지 차단, 민감 콘텐츠 필터링, 사용 시간 제한 등이 포함된다.
그러나 도입 초기부터 주민등록번호 도용이나 VPN 우회를 통한 연령 제한 무력화 가능성은 지속적으로 제기돼 왔다. 실제로 국내 청소년의 약 30%가 SNS 가입 시 나이를 허위로 입력한 경험이 있다는 조사 결과도 있다. 이와 관련해 인스타그램 측은 “구글, 애플 등 운영체제(OS) 수준에서의 협력이 병행돼야 보다 실효성 있는 보호가 가능하다”고 설명한 바 있다.
청소년 보호를 위한 SNS 이용 제한은 세계 여러 나라에서 입법 단계로 확산되고 있다. 가장 강력한 조치를 취한 국가는 호주로 지난 2023년, 부모 동의 여부와 관계없이 16세 미만 청소년의 SNS 계정 생성을 전면 금지하는 법안을 통과시켰다. 이를 위반할 경우 플랫폼 사업자에게는 최대 5,000만 호주달러(약 440억 원)의 벌금이 부과된다.
미국에서도 연방 차원의 입법은 답보 상태지만, 2024년 기준 전체 주의 절반에 해당하는 주들이 독자적으로 청소년 SNS 사용을 제한하는 법안을 도입하고 있다. 프랑스는 이미 15세 미만의 청소년이 부모 동의 없이 SNS를 이용하는 것을 금지하고 있으며, 튀르키예도 청소년의 SNS 이용을 연령대에 따라 차등 제한하는 내용을 담은 입법을 추진 중이다.
국내에서도 유사한 논의가 진행 중이다. 여당은 2023년 7월과 8월, 각각 △청소년의 소셜미디어 중독을 방지하는 ‘청소년 필터버블 방지법’ △16세 미만 청소년의 SNS 일별 이용 한도를 설정하고 중독 유도 알고리즘을 보호자가 확인하도록 하는 ‘정보보호법 개정안’을 발의했다. 야당도 14세 미만 아동의 회원가입을 금지하는 정보통신망법 개정안을 제출한 바 있다.
다만, 청소년 SNS 사용을 법으로 제한하는 접근에 대한 반대 여론도 존재한다. 일각에서는 표현의 자유 침해와 함께, 디지털 리터러시 교육의 기회를 제한할 수 있다는 우려를 제기한다. 국제 NGO 세이브더칠드런(Save the Children)은 호주의 관련법 입법에 대해 “단순한 차단보다는 플랫폼에 대한 법적 책임 강화, 안전 기능 개선, 청소년 교육이 병행되는 다층적 접근이 필요하다”고 제언했다.
디지털리터러시교육협회 김묘은 대표는 지난 3월 <이코리아>와의 인터뷰에서 “청소년이 SNS를 잘못 사용하는 것은 가르쳐준 적이 없기 때문”이라며, “규제로 배움의 기회를 박탈하기보다는 올바른 사용법을 교육해 책임 있는 이용자로 성장하도록 돕는 것이 어른의 역할”이라고 강조했다. 이어 “규제가 실제로 효과를 낼 수 있을지 회의적이며, 오히려 음지화로 더 큰 문제를 유발할 수 있다”며 “청소년의 건강한 SNS 이용을 위해서는 강제적 제한보다는 디지털 리터러시 교육이 핵심”이라고 덧붙였다.