닫기

[대한민국 갈등넘어 통합으로] ‘부모 승인·DM 거부’…유해 콘텐츠 차단 나선 기업들

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://www.asiatoday.co.kr/kn/view.php?key=20240707010004376

글자크기

닫기

박세영 기자 | 임상혁 기자 | 김채연 기자

승인 : 2024. 07. 07. 17:00

유튜브·메타, 유해콘텐츠 삭제 검열 강화
카카오·네이버 AI 활용해 유해콘텐츠 차단
1356390862
/게티이미지뱅크
2024070101000027000171991
유튜브와 인스타그램 등 온라인 공간에서 난무하는 혐오·비하발언을 규제하기 위해 기업들이 고군분투하고 있다. 자체 규정을 강화해 콘텐츠를 모니터링하고 검열·삭제하는 등 유해콘텐츠에 노출되기 쉬운 청소년들을 보호하기 위한 내부 정책 강화에도 앞장서고 있다. 실제 기업들의 제재 조치로 인해 온라인 상에서 다수의 폭력 콘텐츠와 댓글 등이 삭제되고 있는 것으로 조사됐다.

7일 아시아투데이 취재를 종합하면 올해 1분기 기준 유튜브의 자사 가이드라인 위반에 따른 삭제 채널 수는 1579만9880건이다. 같은 기간 삭제된 총 동영상 개수는 829만5304개, 댓글 건수 또한 14억4382만1162건에 달한다. 유튜브의 자체 정화 기능이 활발하게 이뤄지고 있는 것으로 보인다.

유튜브는 현재 증오·폭력과 같은 유해 및 위험 콘텐츠 등에 대해 자사의 플랫폼 정책을 위반하는 콘텐츠는 삭제하고 이와 관련된 알림 이메일을 크리에이터에게 발송하고 있다. 90일 이내에 경고를 3번 받을 경우 해당 유튜브 채널은 폐쇄된다. 과도한 노출이나 성적인 콘텐츠, 저속한 언어 등에 대해서도 유튜브는 동일한 내용의 규제를 하고 있다.

인스타그램·페이스북 운영사인 메타도 자체 규정을 통해 유해콘텐츠 삭제 또는 계정 비활성화에 나서고 있다. 1020세대의 이용률이 높은 메타 플랫폼의 경우 사용자 상태에 상관없이 18세 미만의 모든 이용자에게 더 강력한 보호 정책을 적용하고 있다. 혐오 발언과 괴롭힘, 따돌림 같은 온라인 폭력 등에 대한 커뮤니티 규정 위반시 즉각 콘텐츠 삭제 조치가 내려지거나 계정이 비활성화된다. 필요할 경우 메타측은 사법당국과 공조하는 등의 조치를 취하고 있다.
메타는 현재 전 세계 전문가들의 자문을 받아 커뮤니티 규정을 제정하고 있다. 특히 10대 청소년들을 유해콘텐츠로부터 보호하기 위해 자신이 팔로우하지 않거나 접점이 없는 사람으로부터 다이렉트메시지(DM)을 수신할 수 없도록 기본 설정해 청소년들을 원치 않는 연락으로부터 보호한다. 또 청소년이 인스타그램 내 설정을 변경하려면 관리 감독 기능을 통해 부모의 승인을 받아야 한다.

메타에 따르면 이 같은 커뮤니티 규정 시행 결과, 올해 1분기 페이스북에서 790만개의 온라인 폭력 콘텐츠에 조치를 취했고, 인스타그램에서는 1000만개 이상의 콘텐츠에 제재 조치가 내려졌다. 이중 페이스북 콘텐츠 86%와 인스타그램 콘텐츠 96%는 이용자가 신고하기 전, 사전에 감지해 삭제됐다. 혐오 발언이 포함된 콘텐츠는 페이스북에서 740만개, 인스타그램에서 860만개가 삭제됐으며 사전 감지율은 각각 페이스북 95%와 인스타그램 98%에 달한다.

인공지능(AI)을 활용해 댓글 등 유해콘텐츠를 삭제하는 사례도 잇따르고 있다. 국내 양대 인터넷 포털인 카카오와 네이버는 유해콘텐츠를 차단하는 AI 기술 고도화에 앞장서고 있다.

먼저 카카오는 AI 기술을 활용한 '세이프봇' 기능을 2020년에 도입했다. 세이프봇은 불쾌감을 주는 욕설과 비속어 등을 선별적으로 가리는 것이 특징이다. 카카오는 지난해 6월 댓글을 개편하면서 세이프봇 기능을 강화했으며 그간 선택 옵션으로 제공했던 세이프봇을 모든 댓글에 일괄 적용했다.

카카오는 이밖에도 '댓글 운영정책 현황'을 통해 △24시간 댓글 신고센터 운영 △댓글 작성 어뷰징 방지 시스템 적용 △불법·음란 등 유해 댓글 자동 필터 도입 △댓글 덮어두기, 이용자 댓글 활동 숨기기, 접기 등 이용자 보호 기능 도입 △이용자 닉네임 신고 및 제재 강화에 나서고 있다.

네이버의 경우 2019년 업계 최초로 적용된 AI 기반의 악성 댓글 탐지 도구인 'AI클린봇'의 탐지 기술을 고도화하고 있다. 네이버는 2019년 클린봇 도입 이후, 도입 초기 24.8%에 달하던 악플 생성비율을 지난해 16.7%까지 낮췄다. 악플 노출비율 또한 21.9%에서 8.9까지 대폭 줄였다.

네이버 측은 악성 댓글이 증가할 경우 별도 알림 등을 통해 댓글 OFF 여부를 결정할 수 있도록 신규 기능을 지원한다는 방침이다. 또 최근 공적 대상에 대한 댓글 영역에서의 특정 표현이 '모욕죄'로 인정된 만큼 각 개인의 법적 책임에 대한 문구를 추가해 사전고지 영역을 강화한다고 밝혔다. 작성자의 댓글 이용 제한 상태를 표시하는 등 프로필 영역도 강화할 방침이다.
박세영 기자
임상혁 기자
김채연 기자

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기

댓글 작성하기