ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • KBS, MBC, 아프리카 TV 서버가 터지는 동안 끝까지 생중계한 SBS의 비결은? │인터비즈 확인
    카테고리 없음 2020. 2. 8. 11:34

    [DBR/동아 비즈니스 리뷰]때는 2018년 6월 27하나, 러시아의 월드컵 한국 VS 독할지전이 열렸다. 온 국민의 관심이 쏠린 이 경기는 곧바로 당시 KBS, MBC, SBS, 아프리카TV, POOQ 등에서 생중계됐다. 사상 최대의 접속 서버에 대부분의 스트리밍 서비스 페이지가 마비됐지만 유독 SBS만 살아남았다. 이런 차이는 어디에서 나온 것일까. SBS I&M 박정진 플랫폼 서비스실장은 클라우드라고 답합니다. SBS는 국내 방송사 최초로 클라우드를 전환하기도 했지만 DBR 280호에 게재된 박종진 실장과 인터뷰 스토리우에서 자세히 알아보자.文원문 기사 추가


    >


    SBS는 하나 990년 스토리에서 인터넷 사업을 시작했다. 회사의 인프라가 만들어진 지 20년이 넘었으니, 동영상 서비스도 하나 0~20년 된 장비에 왔다. 인프라가 오래 전이므로, 적재 적소에 활용하지 못할뿐더러, 1년에 1,2차 대형 체육 경기 때마다 SBS웹이 자신의 앱에 온다 시청자들은 감당할 수 없게 됐다. 하나 0시 황금 때 테러 대상으로 시청률 20~30%대의 인기 드라마가 자신의 오기라도 하면 일일이시쯤 이 나라가 마지막으로 자신 자마자 VOD의 재검토를 이용하려고 다가오는 접속자 때문에 화면 장애가 된 1스욧다. 특히 영상이 뜨겁지 않고 버퍼링이 심할 때 인내심을 갖고 기다리는 사람은 거의 없다. 대부분 표시될 때까지 클릭을 무한 반복하기 때문에 시스템은 과부하로 나타났다.


    >


    올림픽이나 월드컵은 또 어떤가. 수십 만 인구가 동시 접속했지만 경기가 끝나면 썰물처럼 빠져나가고, 또 다른 10만 여명이 하이라이트 영상을 돌리면 사이트를 찾는다. 경기 때문에 결장하는 인기 연예나 드라마라도 있으면 "스포츠를 싫어한다" "의도대로 방송해 달라"고 항의하려고 시청자 게시판에 로그인한다. 기존 시스템에서는 이처럼 특정 기간에 정점에 급등하는 트래픽을 견디지 못하고 1년에 삼일 정도는 사이트가 견디지 못하고 끊어졌다. SBS만의 문재도 없이 이런 그이츄이 20년부터 다음에 반복되다 보니 모두 문재를 당연하게 생각했다. 하지만 OTT(Over The Top) 서비스가 트렌드가 되면서 유료 이용자가 예상보다 많아 더 이상 가만히 있을 수 없다는 문재의식이 생겨났다. 그리고 외부의 초고성능 시스템을 빌릴 수 있는 클라우드를 찾게 됐다.


    >


    원래는 장비를 사서 자체 데이터센터에 넣어두고 사용했지만 요즘은 클라우드에 있는 시스템을 구독하듯 월세를 내고 쓴다. 이 때문에 서버가 사라지는 서버리스(Serverless) 환경을 실현할 수 있게 됐다. AWS(Amazon Web Services)가 당시 우리가 원했던 만큼 자동으로 서버를 매일 제공해 주기 때문입니다. 2016년 앞으로 한번도 새로 서버를 산 적이 없다. 이 같은 신축적인 환경은 리오올림픽, 평창동계올림픽, 아시아경기대회, 러시아월드컵 등의 대형 이벤트에서 빛났다. 나이 때 과거에는 서버가 50Gbps정도의 트래픽을 수용할 수 있지만 대형 운동 행사에서 그 몇 배의 용량이 필요할 것으로 예상될 경우 사전에 수십대의 서버인 큰강 것 자기 돈을 추가로 내고 구매해야 했다. 그래서 정말로 시청자가 그 정도로 내몰리거나 트래픽이 과연 3배까지 거의 채찍 일어나는지를 입증해야만 예산을 확보할 수 있었지만, 예측하기 어려웠다. 주저하며 자결을 미루다 실제 그 정도 예상 트래픽이 발생하면 시스템은 결국 엉망이 된다.그러면 최근에는, 아마존의 인프라가 한계에 도달하지 않는 한, 무한히 서버를 거의 매일 이용할 수 있다. 클라우드 전환으로 서비스 품질이 개선되고 고객 만족도도 높아졌지만 실제 직원 만족이 더 높다.원래는 서버가 다운돼 페이지가 열리지 않으면 직원들이 밤늦게 회사로 달려가 문제를 파악하고 고쳐야 했다. 사용자가 등을 돌리면 결국 시스템보다는 관리자에게 책임이 주어지기 때문에 클라우드는 이런 열악한 상황에서 가장 효율적인 땅이었다.


    일례로 예전에는 종료된 작품의 홈페이지를 모두 열기 어려웠다. 과거 프로그램 데이터에 new 데이터가 더해져 트래픽 용량이 항상 늘어나면 서버를 추가로 구입해야 하는 비용 문제가 있었기 때문이었다. 하지만 클라우드 전환을 하면서 이미 종료된 작품들의 홈페이지를 모두 복원할 수 있었다. 이처럼 과거 영상 아카이브를 무료로 재생했더니 시청자 트래픽도 늘 있었고 자연스럽게 선전 매출도 늘었다. 이른바'롱테 1현상(long tail theory)'*이 있었던 것이었다 20하나 6년 클라우드로 전환한 뒤 시스템 비용은 당신에게이지만 사이트의 매출은 2배 증가했다.​ 또 20하나 6년부터 new서버를 구입하지 않고 있다. 보니까 현금흐름이 너무 좋아졌어. 신규 장비 구매비가 20하나 5년 하나 하나 옥 6000만원이었으나 20하나 8년에는 하나 옥 원 수준으로 감소했다. 원래는 인터넷 데이터 센터(IDC)사용료로 매년 약 5억원 정도를 걸었지만, 클라우드의 이전이 완전히 끝나면 이 사용료는 하나 00카피.세인트 없어지다. 클라우드는 보수비용도 필요 없다. 신규 장비 구입과 데이터센터 운영비용을 최소화함으로써 투자위험 없이 대규모 서비스 구성과 개발이 가능해졌다는 의미이다.​*롱테 1현상:80퍼.세인트의 비주류 상품 혹은 고객의 매출이 20퍼.센트는 충분히 뛰어넘을 뿐만 아니라 시장지배자보다 매출이 높다는 것을 의미한다. 노래, 영화 등 콘텐츠 시장에서 기존의 이른바 블록버스터 히트곡 중심의 시장이 희귀본 마니아의 한가운데 시장으로 변화해 가는 것을 잘 설명하고 있습니다.


    어려워서 4년째 진행 중이다. 넷플릭스의 경우 클라우드 앞에 7년이 걸렸다. 클라우드 전환은 단순히 AWS가 재공하는 서버나 예기지 등의 물리적 인프라만을 활용하는 것을 의미하지 않는다.사실상 모든 기술을 재구축해 운영방식을 근본적으로 바꾸는 작업이다.기존 시스템에 적응했던 사람들의 업무 방식이나 조직 문화를 바꿀 필요가 있다. 원래의 데이터를 클라우드로 너희에게 옮기는 것은 기존 데이터센터가 가진 한계점과 문제까지도 그대로 답습할 뿐이다. 좋은 인프라가 있더라도 그 장점인 확장성과 유연성을 최대한 활용할 수 있는 조직이 마련돼 있지 않으면 아무 의미가 없다.


    >


    따라서 AWS는 우리에게 서비스를 빠르게 혁신하기 위해 개발과 기획, 운영을 통합하는 데브 오브스(Dev Ops) 조직을 제안하고 한꺼번에 전부 바꿀 수는 없어 진취 직원 몇 명과 함께 적합한 새로운 조직을 검토하기로 했습니다. SBS콘텐츠 허브만으로도 직원이 하나 20~하나 30명은 되었기 때문에 그동안의 업무 방식을 개혁하면 실패 확률도 높아 내부의 반발도 거셀 것이라고 여겼기 때문이었다 지원자가 3명이면 한단 3명의 뚱뚱한 오푸스 조직을 만들었다. 그래서 적응하면 새로 뚱보 오브스 조직을 만들어 새끼를 낳는 방식으로 참가자를 늘려 나쁘지 않았다. 일종의 다단계 내부 학습의 틀을 만든 것이다.*데브오푸스 : 작은 결함이 나쁘지 않아요 장애기를 신속히 해소하고자 약 5명 안팎의 인원으로 사건 발견부터 해결까지 처리하는 조직


    지금까지는 고객이 불편함을 느끼는 것을 발견하는 기획자, 실제로 불편을 해소하는 개발자, 시스템을 안정시키는 운영자가 각각 따로 있었다. 부서가 다르면 의사소통을 문서로 해 프로세스가 느려졌고 성과평가지표(KPI)가 달라져 업무 우선 순위도 제각각이었다. 이 때문에 고객의 요구 본인의 콘텐츠 환경 변화에 맞춰 부서를 넘어 협업하고 서비스를 신속하게 업그레이드하는 것은 불가능에 가까웠다.직원들의 행동을 바꾸기 위해 자리 배치부터 바꿨다. 기획팀, 개발팀, 운영팀끼리 본인이 갈라져 있으면 다 뭉치지 못하고 동상이몽이어서 직군별 없이 데브 오브 스팀을 만들어 모두 같은 공간에 모아 놓았다. 프로젝트마다 개발자, 운영자 기획자들을 각 하나~둘씩 붙어 3개월마다 이합 집산하는 방식으로 운영했다. 이렇게 3개월마다 자리를 이동하면서 직원들도 짐 싸는 것이 하나였다. 그래도 모두 적응했다. 프로젝트 단위로 사건이나 짐 싸기에 익숙해진 것이 가장 큰 변화다.


    >


    그렇다. 방송이 끝나면 화면 VOD 파일을 업로드하면 짧은 하이라이트 클립과 サム네일 이미지 등을 만들어 입력하는 운영자가 있어야 하고 홈페이지 전체 구조인 템플릿을 짜는 기획자, DB에서 데이터를 추출해 뿌려주는 개발자, 페이지를 사용자의 눈에 보이게 구현하는 코더까지 협업이 필요하다. 예전에는 기획자가 사이트를 편성한 담장 개발자에게 맡기는 방식으로 절차가 잘 이뤄졌다면 지금은 동시에 진행되기 때문에 속도가 더 빨라졌다.클라우드 환경에서 '마이크로 서비스 아키텍처'를 구현한 것이 보다 빠른 노하우 마이크로서비스란 매번 애플리케이션 전체를 만드는 것이 아니라 영역별, 기능별로 최대한으로 나누어 개발하는 방법을 말합니다. 모든 서비스를 레고블록처럼 흩어지는 담비행기가 필요하면 비행기를 조립하고, 자동차가 필요하면 자동차를 조립하는 것이었다, 이렇게 나눠 놓으면 개발을 담당하는 조직의 크기도 작아져 의사자결이 자신의 서비스 업데이트도 쉬워진다. 저런 마이크로 서비스의 성패는 진짜 결국 개발자들이 어느 정도 자신 많은 레고 블록, 즉 API 4를 만들어 놓느냐에 달렸다. 우리는 0대, 20대, 30대 등 연령대별 콘텐츠 추천 API, 남녀 성별에 따른 컨텐츠 추천 API드라마, 예능 등 프로그램 유형별 콘텐츠 추천 API, 저런 형태의 블록을 너무 많이 만들어 놓았다. 코더는 이 블록을 조립할 뿐이어서 홈페이지를 개편하고 개인별 추천 기능을 강화하는 작업이 더 빨라질 수밖에 없다.


    SBS는 클라우드 전환으로 디지털 트랜스포메이션을 추진할 수 있었다. 통신비는 20~30퍼.세인트 삭감되어 시스템의 인프라 비용도 40~60퍼.세인트로 줄어들어 신규 서비스나 디지털 기술에 투자한 비용도 20퍼.센트만큼 아꼈다. 개발 결과를 공동 사용하고 SBS 미디어넷 골프닷컴 운동빅이벤트 사이트 등이 동반 성장하는 등 규모의 경제도 누렸다.그러나 이 과정은 절대 쉽지 않았다. 실제로 클라우드 전환 자체는 돈을 내면 누구나 할 수 있다. 하지만 이는 마치 더 큰 집으로 이사해 더 큰 지상을 갖게 되는 것과 같다. 사람이 이사를 대행해 준다면 옮기는 것 자체는 어렵지 않다. 하지만 새로운 집의 구조와 지상 주위 환경을 갖추지 않으면 막상 이사를 가서도 내 집에서 방황하고 제대로 농사를 짓는 경작법도 모른 채 그 가치를 누릴 수 없습니다. AWS에도 펀딩 프로그램이 있어서 잠시 서비스를 이용하면 기존 데이터센터에 있던 데이터를 댁으로 클라우드로 옮기기도 합니다. 이 프로그램을 활용하는 방송사도 있다. 하지만 지난 수십 년간 업무 방식을 바꿔 구석에 갇혀 있던 장비와 데이터를 정리하고 버릴 것은 버려야 한다. 무조건 클라우드에 복사만 해 놓았다고 해서 갑자기 데이터를 적재적소에 활용하게 되고 서비스 속도가 빨라져 비용이 절약되는 것은 아니라는 것을 나도 경험을 통해 배웠다.​의 출처 프리미엄 경영 잡지 DBR 280호 필자의 김윤진 기자


    《관련 기사 더 보기 정부 기반 인프라도 클라우드 많은 공공분야가 과인이므로 신기술 활용해야 《IT혁신의 길 클라우드 컴퓨팅에 묻는다


    >


    >



    댓글

Designed by Tistory.