오늘도 알고리즘을 탄다
나에게는 추천알고리즘에서 벗어나기 위해 유튜브 검색 및 시청 기록을 삭제하는 습관이 있다. 하지만 기록을 삭제한 후 마주하게 되는 유튜브의 텅 빈 홈 화면은 왠지 모를 막막함으로 다가온다. 몇몇 영상을 재빨리 검색해서 보고 나면, 금세 홈 화면은 나를 위한 추천 영상으로 가득 차고 다시 평안한 일상으로 돌아온 기분이다. 알고리즘은 우리에게 편의를 제공하는 선택 가능한 기능일 뿐이라 여겨질 수 있지만, 그보다 훨씬 더 큰 영향력을 지닌다.
점차 알고리즘화된 세계에 익숙해지고 있는 우리. 이 세계는 나의 선택과 행동에 기초하여 만들어지므로, 내가 주도하고 있는 듯한 착각을 불러일으킨다. 하지만 이 익숙한 세계는 정말 나의 의지로 만들어진 것일까? 우리는 지금, 나도 모르게 만들어진 경로 위를 달리고 있는 것은 아닐까?
‘나’를 읽어내는 알고리즘
종종 ‘(알 수 없는) 알고리즘이 나를 여기로 이끌었다’라는 표현을 듣는다. 이는 예측하지 못했던 즐거운 발견을 반갑게 표현하는 말일 수도 있고, 때로는 당혹감이 담긴 표현일 수도 있다. “어떻게 이런 콘텐츠가 나왔지?”라고 놀라는 순간, 이미 알고리즘은 나를 특정한 카테고리 안에 넣고 있다. 기계학습 기반의 추천 시스템은 우리가 인지하지 못하는 방식으로 데이터를 수집하고, 기준을 세우며, 점점 더 정교하게 사용자에게 맞춤형 콘텐츠를 제공한다. 미디어 플랫폼은 어떤 데이터에 얼마만큼의 가중치를 부여할 것인지 정하고, 이 기준에 따라 콘텐츠나 서비스를 추천한다. 나의 클릭, 머무른 시간, 반복된 행동뿐 아니라 나의 친구, 나의 지리적 위치, 기기 특성 등이 곧 나를 해석하는 데이터가 된다.
이러한 기술의 정교함은 때때로 나의 의도를 왜곡시키기도 한다. 구글 광고 설정 페이지를 열어보면, 구글이 내 행동을 토대로 나를 어떤 카테고리에 속한다고 판단했는지 확인할 수 있다. 그러나 이 분류는 내 정체성의 일부만 반영할 뿐, 데이터화되지 않은 나의 감정, 맥락, 생각은 전혀 반영되지 않는다. 나는 슬플 때 오히려 더 슬픈 음악을 들으며 감정에 깊이 빠지는 성격의 사람일 수도 있고, 슬플 때 밝은 음악으로 슬픔을 잊으려 하는 사람일 수도 있다. 하지만 데이터로 파악된 나는 단순하게 슬픈 음악을 자주 듣는 사람, 혹은 밝은 음악을 자주 듣는 사람에 그칠 가능성이 높다. 이처럼 알고리즘이 만든 세계에 오래 머물수록, 데이터로 설명되지 않는 ‘나’는 점점 더 주변부로 밀려나게 된다.
더불어 데이터화되지 않는 사람들도 있다. 디지털 기기와 서비스를 사용하지 않는 사람, 디지털 기기가 선호하는 방식의 소통이 어려운 사람, 그들의 행동과 취향은 알고리즘에, 더 나아가 디지털 세상에 반영되기 어렵다.
알고리즘의 양면성
하지만 알고리즘은 위협적인 존재만은 아니다. 우리는 알고리즘을 불편해하면서도 동시에 알고리즘에 기댄다. 마치 나에게 맞춤한 것처럼 내가 좋아할 것을 미리 짚어주는 것, 선택의 피로 없이 나에게 맞는 것을 추천받는 것은 편하기도 하고 만족스럽기도 하다. 점점 광범위한 정보와 콘텐츠, 이야기로 가득한 디지털 세상에서 나의 선택을 돕는 비서가 있는 것도 나쁘지 않다고 생각하게 한다. 이런 이중적인 감정 속에서 우리는 알고리즘과의 공존을 선택한다. 그렇기에 알고리즘의 구조와 작동 방식에 대한 이해는 필수적이다.
최근에는 알고리즘의 작동 방식을 투명하게 밝히도록 요구하는 흐름도 생겨나고 있다. 유럽연합의 디지털서비스법(DSA)은 유튜브, 틱톡 등의 대형 온라인 플랫폼에 알고리즘의 투명성을 요구하고 있으며, 일부 영어권 국가는 미성년자 대상의 추천 알고리즘 작동을 제한하거나 금지하고 있다. 이는 알고리즘이 단순한 편의 도구를 넘어, 사회적 책임을 지는 하나의 ‘환경’이 되어야 함을 시사한다.
알고리즘의 영향력 중 가장 큰 것은, ‘취향의 심화’라는 이름 아래 취향의 고착화를 유도한다는 점이다. 이는 곧 세상을 보는 창을 좁히고, 타인과의 소통을 어렵게 만든다. 우리는 각자 다른 필터 버블 안에서 각기 다른 세상을 경험하고 있으면서도, 상대가 나와 같은 세상을 보고 있을 것이라 착각한다. 그 착각은 곧 오해를 낳고, 더 나아가 갈등으로 이어지기도 한다.
예를 들어, 어떤 알고리즘 환경에서는 생성형 인공지능을 활용해 시를 그림으로 표현하는 문화예술적 콘텐츠가 공유된다. 반면, 또 다른 환경에서는 생성형 인공지능의 금칙어를 피해 가며 음란물을 제작하는 프롬프트와 방법이 활발히 오간다. 같은 도구를 두고도 접근 방식이 이렇게나 다르다. 이제 우리에게 기술을 쓰는 도구적 방법보다, ‘왜’ 사용하는지, ‘어떻게’ 사용하는 것이 사회 공동체 가치에 부합하는 것인지를 묻는 교육이 절실한 것이 아닐까?
기술에 대한 태도, 그리고 상상력
기술은 고정된 것이 아님을 강조하고 싶다. 특히 디지털 기술과 인공지능처럼 눈에 보이지 않는 인프라가 된 존재들은 더더욱 그렇다. 기술을 단지 ‘편리한 도구’로 소비하지 않고, 기술의 구조와 방향성을 상상하고 질문하게 되면 기술을 보는 더욱 넓은 시각을 갖출 수 있다. 청소년 대상 미디어 리터러시 교육의 한 예로, 미디어 플랫폼을 기획하는 사람이 되어 그 플랫폼의 알고리즘을 결정하는 사례가 있다. 이때 청소년들은 자신이 기획하는 플랫폼의 지향, 이용자들이 플랫폼에서 어떤 경험을 하기 원하고, 이윤을 창출한다면 어떤 방식으로 할 것인지 등을 고민하여 플랫폼에서 구동될 알고리즘을 결정한다. 이 과정에서 청소년들은 알고리즘이 가치중립적 기술이 아니라 의도를 가지고 기획된 것임을, 그리고 그러한 알고리즘이 플랫폼 이용자의 행동과 경험에 보이지 않는 영향을 미침을 이해하게 된다.
기술과 주도적으로 협력하고, 기술의 미래를 설계하는 시민으로 성장하기 위해 놓치지 말아야 할 것이 바로 ‘상상력’과 ‘공감 능력’이다. 낯선 것을 만나며 상상력을 발휘하고, 나와 다른 생각을 하는 사람의 이야기를 경청하며 공감하도록 노력할 수 있게 돕는 교육은 결국 보다 포용적이고 다양성을 추구하는 알고리즘을 만들고 구현하는 디지털 시민을 키울 수 있다. 기술의 편의에만 집중하지 않고, 기술 중심의 사회에서 놓치기 쉬운 상상력과 공감 능력, 다양성을 강화하고, 이를 기술에 녹여낼 수 있게 돕는 교육이 활성화되기를 꿈꿔본다.

- 김아미
- 디지털 미디어 리터러시 연구자. 런던대학교 교육연구대학원(IOE)에서 미디어 리터러시로 박사 학위를, 하버드 대학교에서 교육공학으로 석사 학위를 받았다. 미디어를 경험하는 ‘사람’, 특히 어린이 청소년에게 초점을 맞추고, 미디어와 사람, 사회가 끊임없이 서로를 상호 구성하는 모습을 연구한다. 주요 저서로 『온라인의 우리 아이들』 『미디어 리터러시 교육의 이해』가 있다.
홈페이지 amiekim.com
기사가 좋았다면 눌러주세요!
2 Comments
댓글 남기기
이메일은 공개되지 않습니다.
코너별 기사보기
비밀번호 확인









필터 버블을 벗어나 ‘왜’를 질문할 때
알고리즘 세계에서 디지털 시민으로 살아가기
공감이 갑니다
필터 버블을 벗어나 ‘왜’를 질문할 때
알고리즘 세계에서 디지털 시민으로 살아가기
기대만점입니다