[서정권의 IT 칼럼] 유튜브의 노란딱지, 그리고 AI의 한계

유튜브의 노란딱지, 그리고 노란딱지로 바라본 AI의 한계

 

몇 년 전 크리에이터들 사이에서 유튜브 동영상을 통해 수익창출을 하지 못하게 막는 ‘노란딱지’ 시스템이 논쟁거리가 된 적이 있었다. 현재는 ‘노란딱지’ 이슈가 다소 사그라졌지만, 여전히 이 ‘노란딱지’ 시스템으로 피해를 보고 있는 1인 크리에이터들이 다수 존재한다. 우선 노란딱지 시스템은 저연령층에 대한 유해한 콘텐츠를 유튜브 상에서 삭제하겠다는 명목하에 시행된 시스템으로, 취지만 보자면 굉장히 옳은 시스템이다. 그렇다면 왜 이 ‘노란딱지’ 시스템이 문제가 되고 있고 다른 크리에이터들에게 어떻게 피해를 입히고 있는 것일까.

 

 

유튜브를 덮친 엘사게이트

 

먼저, 이 노란딱지의 출범배경을 알아보기 위해서는 2017년으로 거슬러 올라간다. 2017년경, 유튜브 채널에 다량의 영상이 업로드된다. 영상의 내용은 다소 황당하고 엽기적인 요소들을 담고 있었는데, 문제는 이런 요소들을 담은 자극적인 영상들이 저연령층의 아이들이 주로 시청하는 캐릭터로 제작되었다는 점이었다. 특히, 저연령층의 아이들이 시청하는 디즈니 캐릭터들로 이런 영상들이 주로 제작되었는데, 이 때문에 ‘엘사게이트 사건’이라는 이름이 붙게 되었다.

 

이 엘사게이트 사건은 해외언론에 대대적으로 보도되며 점점 문제가 불거지기 시작했다. 유튜브의 유해 영상 관리문제가 제일 먼저 화두에 올랐고, 뒤이어 유튜브의 대형 광고주들이 유튜브 광고를 중단시키며 상황이 점점 커졌다. 이 엘사게이트 사건에서 가장 큰 문제점이었던 것은 이런 유해한 영상들이 아동을 겨냥해 제작된 콘텐츠였다는 점에서 수많은 사람의 주목을 받았고, 더더욱 유튜브가 아이들을 위해 시작한 전용 서비스인 ‘유튜브 키즈’에도 이런 엘사게이트 영상이 노출되었다는 점에서 큰 일이 아닐 수가 없었다.

 

 

이 엘사게이트 사건을 계기로 유튜브는 자사의 AI 알고리즘 기술력을 활용한 노란딱지 시스템을 만들었다. 노란딱지는 크리에이터가 업로드한 영상을 AI가 분석하여 해당 영상이 유해한지 아닌지를 판가름해 유해한 영상으로 판별될 경우 해당 영상의 수익창출을 금지하는 시스템이었다. 하루에도 수천만 개 이상의 영상이 업로드되는 유튜브의 특성상 사람이 일일이 모든 영상을 필터링할 수는 없으니 정말 이상적인 시스템이 아닐 수 없었다. 이 노란딱지 제도와 유튜브 측의 노력으로 대부분의 엘사게이트 영상은 유튜브 상에서 필터링 되었으며, 문제가 되었던 유튜브 키즈 서비스의 모니터링과 관리·감독을 강화해 저연령층에게 유해한 동영상들을 필터링해내는데 큰 기여를 하였으나, 치명적인 문제가 있었다.

 

취지는 좋았으나…. 노란딱지의 횡포

 

이 ‘노란딱지’는 도입 초기 저연령층이 시청하기에 유해한 영상만을 차단한다는 취지와는 달리 일반적인 동영상까지 차단하는 등의 역효과를 불러일으켜 일반 크리에이터들의 활동까지 가로막았다. 하루아침에 일반적인 영상들에 노란딱지가 붙었고, 크리에이터들은 수익창출을 차단당해 창작활동을 위한 수익을 내지 못하는 상황에 내몰리게 되었다. 수많은 데이터를 관리해야 하는 유튜브의 처지에서 AI 기술력을 활용해 광범위하게 유해 동영상 차단에 나선 것이었지만, 그 기술력이 결코 완벽하지는 않았다.

 

 

 

물론 유튜브에서도 이런 노란딱지가 완벽하지 않았다는 것을 알았는지 유튜브 운영진에게 재심사 청구를 할 수 있었으나, 재심사를 위해서는 수 주가 걸렸고 재심사를 신청할 수 있는 횟수 제한마저 걸려있어 유튜버들은 노란딱지의 횡포를 한동안 그저 바라보고 있을 수밖에 없었다. 그나마 지금은 어느 정도 노란딱지 제도가 도입되고 안정화되어 크리에이터들이 이 정책을 따라가고는 있지만, 초기에는 굉장한 혼란을 초래하며 유튜브 이용자와 크리에이터들의 유튜브 망명이 일어날 뻔 하기도 하였다. 나는 이 사건을 바라보며 인공지능의 한계점을 여과 없이 보여준 사례라는 생각이 들었다.

 

데이터가 아무리 많은 구글의 AI조차도 완벽하지 않았다.

 

이 사건을 통해 나는 ‘AI의 기술이 과연 완벽한가?’에 대한 고민을 해볼 수 있었다. AI를 통해 인간이 해내지 못할 양의 데이터 처리를 해낼 수는 있었지만, 기술이 여전히 완벽하지 못해 오작동을 일으켜 수많은 사람에게 피해를 줬다. 물론 점차 AI가 인간보다 뛰어나게 발전할 것임은 분명하나, 결국 AI들도 인간이 만들어 낸 산물이다. 때문에, AI 역시 인간의 손을 거치지 않고는 관리하기 힘들 것이라는 생각이 든다. 실수를 전혀 하지 않는 완벽한 AI 기술은 근미래에도 나올 가능성이 적다고 생각하고, 미래에도 항상 AI 기술의 옆에는 인간의 도움이 필요할 것이다. 우리가 앞으로도 AI를 효과적으로 활용하려면 인간이 꾸준히 이를 관리하고 보완해 나아가야 할 것이며, 명확한 기준을 만들어 이 기술을 효과적으로 활용해야 한다고 생각한다.

 

 

이 기사 친구들에게 공유하기