실시간 뉴스



[김익현]페이스북의 '엑스페리먼트'


필립 짐바르도 스탠퍼드대학 교수는 지난 1971년 흥미로운 실험을 했다. 지원자 24명을 죄수와 교도관으로 나눈 뒤 가짜 감옥에서 직접 생활하도록 한 것이다. 심리학 교수였던 짐바르도는 감옥의 실제 상황을 알기 위해 이 실험을 설계했다.

야심찬 출발에도 불구하고 실험은 엿새 만에 중단됐다. 연구 대상자들이 자신의 역할에 너무나 빨리 몰입해 버린 때문이다. 불과 몇 시간만에 교도관들은 가혹행위를 하기 시작했다. 급기야 반란까지 발생하면서 실험은 소기의 목적을 달성하지 못한 채 끝나버리고 말았다.

‘감옥 실험’은 사람들의 감정을 연구 대상으로 삼는 것이 얼마나 위험한 지 보여주는 사례로 널리 인용되고 있다.

독일의 올리브 히르비겔 감독이 지난 2001년 만든 영화 '엑스페리먼트'는 바로 이 ‘감옥실험’을 모티브로 한 작품이다. 이 영화는 2010년 미국의 폴 쉐어링 감독이 리메이킹해 또 한 차례 화제가 되기도 했다.

갑자기 영화 ‘엑스페리먼트’ 얘기를 꺼낸 건 오늘 불거진 페이스북의 감정 실험연구 때문이다. 잠시 그 얘기를 해 보자.

◆ 페이스북 "데이터 이용정책 준수했다"고 강조하지만…

페이스북은 지난 2012년 1월 방대한 연구에 착수했다. 코어 데이터 사이언스 팀의 애덤 크레이머가 제이미 길로리 캘리포니아주립대 교수, 제프리 핸콕 코넬대 교수 등과 함께 한 이 연구는 “소셜 미디어를 통해 사람의 감정이 전염될 수 있는가?”란 문제의식에서 출발했다.

페이스북 같은 소셜 미디어에서 우울한 소식을 많이 접하게 되면 굳이 얼굴을 맞대지 않더라도 그 감정에 전염될 것이란 가정이다.

실험 규모는 방대했다. 일주일 동안 무려 68만9천3명에 이르는 이용자 데이터를 수집했다. 그것도 실험실이 아니라 실제상황 데이터였다. 이를 위해 페이스북은 뉴스피드 알고리즘 조작을 통해 긍정, 부정 메시지 노출 빈도를 적당하게 조절했다.

실험실 수준 연구에서는 이미 감정 전염 현상이 여러 차례 증명됐다. 따라서 새로울 것은 없다. 하지만 소셜 미디어를 통해, 그것도 얼굴을 맞대지 않고도 감정이 전염된다는 것을 실증적으로 증명해낸다면 적잖은 학술적 가치를 인정받을 수 있다. 페이스북의 이번 연구는 이런 점에서 큰 관심을 모으고 있다.

결론은 기대대로였다. 부정적인 메시지를 접한 사람들은 부정적인 글을 올리는 빈도가 높아진 것. 긍정적인 메시지도 마찬가지였다.

이번 연구는 결과만 놓고 보면 새로울 건 없다. 하지만 70만 명에 가까운 방대한 데이터를 ‘실험실 수준이 아니라 자연 그대로에 가까운 상태’에서 수집, 분석했다는 점에서 큰 의미를 지닌다. 이 논문을 게재한 미국 국립과학원회보(PNAS) 역시 연구의 독창성에 대해 높이 평가하고 있는 모양이다.

문제는 연구 윤리다. 70만 명에 가까운 불특정 다수를 상대로 데이터 조작 처치를 했다는 점이 논란 거리다.

물론 연구를 주도한 페이스북은 전혀 문제될 것 없다는 입장이다. 연구자들은 이번 논문에서 "페이스북 계정을 만들면서 이용자들은 이런 류의 연구에 동의했기 때문에 데이터 이용 정책(Data Use Policy)에 위배되지 않는다"고 주장했다. 맞는 말이다. 최소한 법적으론 아무런 문제가 되지 않는다. 페이스북에 가입하면서 정신 없이 “예, 예”라고 누른 것 중에 이런 류의 실험에 대한 동의도 포함돼 있었기 때문이다.

페이스북 측은 또 “특정 계정과는 관계가 없으며, 연구와 관계없는 정보는 수집하지 않았다”고 해명하고 있다. 이 또한 맞는 말일 것이다. 이번 연구는 LIWC란 언어분석 프로그램을 이용했기 때문에 피험자가 누구인지 구체적인 정보는 특정화되진 않았다. 당연한 얘기지만 페이스북 측은 서비스 품질 향상을 위한 연구란 설명도 덧붙이고 있다.

개인적으로 페이스북의 이런 설명엔 전부 동의한다. 연구자들이 ‘악의’를 갖고 있거나, ‘특정인의 개인 정보’를 불법 수집했을 것이라곤 생각하지 않는다.

그럼에도 불구하고 이번 실험이 유쾌하게 받아들여지지 않는다. 세계인의 플랫폼인 페이스북이 불특정 다수를 상대로 알고리즘을 조작하면서 실험을 했다는 것이 믿어지지 않기 때문이다.

◆ 전 세계 플랫폼의 알고리즘 조작, 생각하면 섬뜩

물론 이번 연구를 ‘감옥 실험’에 비유하는 게 다소 과하단 느낌을 가질 수도 있을 것 같다. 실제로 감옥에 들어가서 체험하는 것과 비교하면 이번 실험은 농도가 매우 약하다. 기껏해야 긍정, 부정 메시지 노출 빈도를 살짝 조절한 정도이기 때문이다.

하지만 그게 간단한 문제는 아니라고 생각한다. 따지고 보면 ‘감옥 실험’ 역시 극한 상황에 처한 인간의 심리를 탐구하려는 지극히 선한 의도에서 출발했기 때문이다. 그런데 인간의 감정을 인위적으로 조작하는 순간 걷잡을 수 없는 결과로 이어졌다. 궁금한 분은 영화 ‘엑스페리먼트’를 한번 보시라. 물론 영화는 실제 실험에다 영화적 상상력을 많이 가미했다는 걸 염두에 두고 봐야 한다.

자, 글을 맺자. 이용자의 한 사람으로서 페이스북이 최적의 서비스를 제공하기 위해 여러 가지 연구를 하는 건 높이 평가한다. 늘 내 생활에 즐거움을 제공해주는 멋진 벗이라고 생각한다.

하지만 이번 실험처럼 불특정 다수를 대상으로 알고리즘을 조작(manipulate)하는 건 참을 수 없다. 의식하지 못하는 사이에 내가 피험자가 됐을 수도 있다는 생각을 하니까 살짝 섬뜩한 느낌마저 든다. 페이스북의 이번 ‘엑스페리먼트’ 같은 연구가 다시는 되풀이되지 않길 진심으로 기원한다.

/김익현 글로벌리서치센터장 [email protected]





주요뉴스



alert

댓글 쓰기 제목 [김익현]페이스북의 '엑스페리먼트'

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중

뉴스톡톡 인기 댓글을 확인해보세요.



포토뉴스