서론
회사에서 데이터 분석가로 일하고 있다면, 아니 분석가가 아니더라도 데이터를 다루는 일을 하고 있다면 ‘이탈’이라는 단어는 숱하게 많이 들어보았을 것이다. 이탈은 일반적으로 고객이 제공하는 제품이나 서비스를 더 이상 이용하지 않거나 구독을 취소하는 것을 의미한다. 이탈이 발생하면 회사는 수익을 상실하게 되고, 이탈의 수가 클수록 수익 상실률은 커지기 때문에 이탈은 고객 충성도와 회사 수익성에 직접적인 영향을 미치는 중요한 문제이다. 이러한 이유로 어느 정도 데이터를 중요시하는 회사라면 회사 내부적으로 이탈률ㅡ이탈을 측정하는 대표 지표ㅡ을 측정하는 대시보드를 별도로 관리하고 있는 게 일반적이다.
이탈률
‘이탈률’은 특정 기간 동안 고객 중에서 이탈한 고객의 수를 전체 고객 수로 나눈 비율을 뜻한다. 이탈률은 보통 백분율로 표시되며, 특정 기간 동안 고객의 이탈 현황을 파악하기 위한 주요 지표 중 하나이다.
나는 회사에서 이 ‘이탈률’을 측정하고 관리하는 프로젝트를 맡은 적이 있다. 신규 서비스를 배포한 지 얼마 안 되었을 때였어서 이탈을 관리하는 게 무엇보다 중요했고, 그렇기 때문에 회사 서비스에 적합한 ‘이탈’의 정의를 다시 세워가며 프로젝트에 임했다. 현재 우리 회사 서비스의 이탈률은 얼마나 되는지, 서비스 배포 전후로 이탈률이 어떤 차이를 보였는지 등을 대시보드를 만들어 전사에 공유했다. 주별 이탈률을 나타낸 대시보드였는데, 이 프로젝트를 진행하며 들은 생각이 있었다.
‘해당 주차의 이탈률이 나오기 전에 고객마다 이탈 가능성을 예측하고, 미리 이탈을 예방할 수는 없을까?’
이탈률이 나오고 나서 다음 주의 이탈률을 낮추는 것 물론 중요하지만, 이탈률이 나오기 전에 ‘이탈할 것 같은 고객’을 예측해서 ‘이탈하지 못하도록’ 예방차원의 관리를 진행하면 이번주의 이탈률부터 낮출 수 있을 거란 게 내 생각이었다.
이런 생각에 확신을 가지게 된 건 우리 회사 서비스의 사용자마다 가지고 있는 접속주기가 다 다르다는 것을 확인했을 때부터였다. 사용자 코호트마다 접속주기가 큰 폭으로 달랐다. A 사용자집단은 3개월 단위로 접속하는 반면, B 사용자집단은 일주일 단위로 접속하는 식이었다. 이러한 서비스의 특성 하에서 동일한 이탈 기준을 적용하는 게 맞을까?
본론
나와 같은 생각을 했던 사람들은 이 문제를 어떻게 해결했는지 찾아보았고, 탐색 과정을 통해 알게 된 지표가 바로 “이탈 위험도”였다. 이탈 위험도를 적용하면 표준화 개념이 적용되어서 위와 같은 문제를 어느 정도 해결할 수 있다.
이탈 위험도
'이탈 위험도'는 고객이 서비스 이탈을 할 가능성을 측정하는 지표이다. 보통 고객 이탈을 예측하기 위해 고객의 행동 패턴, 서비스 사용 이력, 결제 이력 등의 데이터를 분석하여 이탈 위험도를 계산한다. 이를 통해 기업은 고객 이탈을 예방하고, 보다 개인화된 마케팅 전략을 수립하여 고객 유치를 시도할 수 있게 된다.
예를 들어, A라는 게임회사가 있다 하자. A사는 최근에 새로운 게임을 출시했고, 이 게임은 인기가 많아 많은 유저들이 이용하고 있다. 그러나 최근에 유저 중 일부가 게임을 이탈하고 있는 현상이 발생했다. 이탈하는 유저들의 특징을 분석한 결과, 게임에서 제공되는 보상이 부족하거나 얻기 어렵다는 이유로 이탈하는 경우가 많았다. A사는 이탈 위험도를 적용하여 이탈할 가능성이 높은 유저들을 파악하고, 이탈 가능성이 높은 유저들에게 추가적인 보상을 제공하기로 결정했다. 이탈 가능성이 높은 유저들에게는 보상의 양을 늘리거나, 더 쉽게 얻을 수 있는 아이템을 제공하는 등의 방법으로 유저들을 유지하려 노력했다. 결과적으로 A사는 이탈 위험도를 적용하여 유저 이탈을 줄일 수 있었고, 게임 유지에 성공했다. 이를 통해 A사는 더 많은 수익을 창출하고, 유저들에게 더 나은 서비스를 제공할 수 있게 되었다. 이처럼 이탈 위험도 지표를 잘 사용하면 기업은 고객 이탈을 예방하고, 서비스의 MAU를 이어나갈 수 있다.
이탈 위험도는 각 기업이 독자적으로 측정하기 때문에 측정 방법과 계산 방식은 기업마다 상이할 수 있다. 하지만 보통은 고객 이탈과 연관이 높은 변수들을 선택 후, 선택된 변수를 이용하여 이탈 위험도를 계산하는 모델을 만드는 방식을 따른다.
- 고객 이탈과 연관이 높은 변수들로 많이 채택되는 지표: 서비스 이용 빈도, 최근 결제 일자, 서비스 만족도 등
- 모델링에 주로 사용되는 알고리즘: 회귀 분석, 로지스틱 회귀 분석, 의사결정 나무, 랜덤 포레스트 등
‘아, 그렇구나! 이제 우리 회사 서비스에 변수들을 넣고 모델링을 하면 되겠다!’라고 생각하는 사람들도 있을 것이다. 굉장히 부럽다. 바로 모델링을 할 수 있는 세팅이 되어 있는 회사라면 나도 모델링을 도입했을 것이다. 하지만 우리 회사는 안타깝게도 그 정도의 정교화된 세팅은 되어있지 않았다. (내가 세팅까지 할 수 있는 능력이 있었다면 좋았겠지만, 나 또한 프로젝트를 진행하면서 환경 세팅까지 공부하고 실행에 옮기기엔 능력이 부족했다😅) 그래서 나는 더욱 간단한, 수학 공식과 같은 심플한 계산식이 필요했다.
내가 활용한 공식은 아래와 같았다.
(이탈 위험도) = (최종접속경과일) / (평균접속주기)
예를 들어, 평균접속주기가 일주일(7일)인 사용자가 최종접속경과일이 10일이 지났다면 이 사용자의 이탈 위험도 = 1.42로 해석하는 것이다. 이탈 위험도가 1 이상인 사용자들에겐 푸시알림이나 할인 이벤트를 진행하는 식의 Action Plan을 세울 수 있다.
우리 회사에서는 이러한 공식으로 유저마다 이탈 위험도를 계산해 냈고, 이탈 위험도가 1 이상으로 도달하면 쿠폰 제공 메일링 등을 진행했다. 그 결과 이탈 위험도 지표를 생성해 내기 전보다 이탈률을 유의미한 퍼센티지 가량 낮출 수 있었다.
[주의!]
우리 회사 서비스 특성상최종접속경과일과 평균접속주기, 이 2개의 변수만을 고려해도 큰 차이가 나지 않겠다 싶어서 2개의 변수만을 고려했지만, 회사 서비스에 따라 이 2개의 변수만으로 이탈 위험도를 정확하게 측정하는 것은 부족할 수도 있다. 따라서, 이탈 위험도를 보다 명확하게 측정하고자 한다면, 최종접속경과일과 평균접속주기 외에도 다양한 변수를 고려하여 모델링하는 것이 필요할 수 있다.
이탈 위험도는 기본적으로 회귀 분석, 로지스틱 회귀 분석, 의사결정 나무, 랜덤 포레스트 등의 알고리즘을 사용하여 만들어지는 모델의 형태에 따라 다르기 때문에, 공식은 일반적으로 표준화되어 있지 않다. 그러나 일반적으로 로지스틱 회귀 분석에서는 다음과 같은 공식을 사용하여 이탈 위험도를 계산한다는 걸 알 수 있었다.
이탈 위험도 = 1 / (1 + exp(-z))
여기서 z는 다음과 같은 공식으로 계산된다.
z = b0 + b1x1 + b2x2 + ... + bnxn
※ b0, b1, b2, .. , bn : 회귀 분석을 통해 구한 계수
※ x1, x2, .. , xn : 이탈 위험도를 예측하기 위해 선택한 변수
결론
나는 “이탈률보다 이탈 위험도가 더 훌륭한 지표이다”, “이탈률을 보지 말고 이탈 위험도만 보자” 이런 말을 하려는 게 아니다. 이탈률과 이탈 위험도는 각각의 특성을 가지고 있고, 각자 지표마다 가지고 있는 장점이 다르다.
이탈률은 특정 기간 동안의 이탈 현황을 직접적으로 파악할 수 있기 때문에, 기업이 고객 이탈 현황을 파악하는 데 매우 유용하다. 반면에 이탈 위험도는 이탈 가능성을 예측하기 때문에, 이탈을 예방하기 위한 대응책을 미리 마련할 수 있어 기업의 경영전략 수립에 매우 중요한 역할을 한다. 이탈 위험도를 예측하면서 고객의 이탈 위험을 예측할 수 있는 변수들을 파악할 수 있으며, 이를 바탕으로 기업은 이탈 가능성이 높은 고객들에게 개별 맞춤형 서비스를 제공하거나, 마케팅 전략을 세울 수 있다.
또한, 이탈 위험도는 고객의 특성, 거래 내역, 서비스 사용 패턴 등 다양한 요인을 종합적으로 고려하여 고객의 이탈 가능성을 예측하기 때문에, 이탈률보다 더 정확하고 예측력이 높다는 장점이 있다.
이탈률과 이탈 위험도를 모두 활용하여 기업의 고객 이탈 전략을 수립하는 것이 좋기 때문에, 회사에서 만일 이탈률만을 사용하고 있다면 이탈 위험도라는 지표의 존재를 알고, 서비스의 개선을 위해 사용해 보려고 시도해 보는것도 추천한다.
'데이터' 카테고리의 다른 글
GPT와 BERT, 두 모델의 공통점과 차이점에 대하여... (0) | 2023.05.19 |
---|---|
GPT, 그게 도대체 뭔데? (0) | 2023.05.04 |
데이터 정제, 기본적이지만 필수적인 과정 (0) | 2023.04.07 |
우리 회사는 '검색' 기능을 제대로 활용하고 있을까? (0) | 2023.03.10 |
코호트 분석(Cohort Analysis)을 해야하는 이유 (0) | 2023.02.25 |