| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
- 파이썬
- 지표설계
- 파이썬라이브러리
- seaborn
- 코드잇
- 스프린트미션
- amplitude
- 데이터분석공부
- 프로덕트분석
- 데이터분석가공부
- 탐색적데이터분석
- 결측값
- 데이터분석가부트캠프
- aarrr
- retention
- 부트캠프
- 프로덕트데이터
- 코드잇스프린트
- 파이썬시각화
- 데이터분석가
- 로그설계
- 태블로
- Tableau
- 지표
- SQL
- 로그
- 데이터전처리
- 퍼널분석
- 데이터분석프로젝트
- 데이터분석
- Today
- Total
StuDyata.zip
[코드잇 스프린트] 데이터 분석가 부트캠프 Week 9 기록 본문
이 글은 코드잇 스프린트 데이터 분석가 과정 학습 기록입니다.
수업 내용과 느낀 점을 매일 정리하며 데이터 분석 공부 과정을 기록하고 있습니다.
더 자세한 수업 내용은 '공부 기록'을 참고부탁드립니다.
😪2026.05.06 수
😭연휴 끝나고 다시 수업...
5일간의 연휴가 끝났다. 솔직히 말하면 아침에 진짜 수업 듣기 싫었다. 너무너무 쉬고 싶었고 다시 공부 모드로 돌아가는 게 정 귀찮게 느껴졌다. 그래도 어쨌든 다시 시작해야 하니까 힘내서 들어갔다. 이날은 수요일이었지만, 월요일이 공휴일이어서 못 했던 위클리 페이퍼를 1교시에 진행했다. 이번 주 위클리 페이퍼 질문은 두 가지였다. 하나는 신규 가입자는 늘었는데 매출은 정체된 상황에서 퍼널 분석과 코호트 분석 중 무엇을 먼저 볼지에 대한 것이었고, 다른 하나는 쇼핑몰 상세 페이지에서 장바구니 추가, 결제 완료까지의 흐름에서 어떤 이벤트와 속성을 트래킹해야 할지 정의해보는 것이었다.
첫 번째 질문은 대부분 결론이 비슷했다. 그런데 두 번째 질문은 이벤트명이나 속성 네이밍 방식이 사람마다 달라서 그걸 보는 재미가 있었다. 같은 내용을 생각해도 표현하는 방식이 조금씩 다르니까 아 이렇게도 쓸 수 있구나 싶은 부분이 있었다. 그리고 이후에는 팀장님께서 팀 규칙 초안을 만들어오셔서 소개해주셨는데, 그 부분도 되게 감사했다. 누군가 먼저 구조를 잡아주는 게 생각보다 편하다!!
👨💻실습 수업
원래 오늘까지는 여덟 번째 스프린트 미션 데이였다. 그런데 저번 시간에 이미 해설까지 다 끝났고, 이 미션에는 비즈니스 분석 프레임워크 토픽이 직접적으로 들어가 있지 않아서 별도로 퍼널, 코호트, RFM 분석 실습을 진행해야했다. 저번 주에 퍼널 분석 실습은 이미 했기 때문에, 이날은 코호트 분석과 RFM 분석 실습을 진행했다.
코호트 분석 실습에서는 먼저 코호트를 나누는 기준부터 여러 가지로 보여주셨다. 가입 시점, 첫 구매 상품, 연령대와 성별 같은 식으로 코호트를 나누는 예시를 차례대로 보았고, 그다음 실제 코호트 분석용 데이터를 만들고 유지율을 계산하는 과정으로 넘어갔다.
고객별 첫 구매월을 구하고, 그 이후 몇 개월이 지났는지를 계산해서 피벗 테이블을 만든 다음, 초기 고객 수 대비 유지율을 계산하는 구조였다. 코드 흐름 자체는 설명을 들으면서 어느 정도 이해가 됐는데, 막상 혼자 다시 하라고 하면 중간중간 버벅일 것 같다는 생각이 들었다. 특히 첫 구매월, 경과 개월, 코호트 피벗, 유지율 행렬 이런 개념들이 머리로는 이어지는데 손으로 다시 쓰려면 아직 덜 익은 느낌이었다. 그래도 “아 코호트 분석이 이런 식으로 만들어지는 거구나” 하는 건 확실히 보였다. 실습 결과를 보면서는 코호트 분석이 왜 필요한지 조금 더 이해가 됐다. 대부분의 코호트는 시간이 지날수록 유지율이 내려가는데, 어떤 시기에는 유지율이 예상보다 높거나 일시적으로 올라가는 코호트도 있었다. 그런 걸 보면 단순히 “시간이 지나면 다 떨어진다”가 아니라, 특정 시기에 유입된 고객 집단이 왜 더 오래 남았는지를 따로 볼 수 있다는 점이 흥미로웠다. 그냥 전체 평균만 봤으면 놓쳤을 차이를 코호트 단위로 보면 잡을 수 있다는 게 확실히 느껴졌다. 그래서 이건 개념만 외우는 것보다 결과를 실제로 보는 게 훨씬 중요한 분석 같다는 생각이 들었다.
이후에는 RFM 분석 실습을 했다. 개인적으로는 코호트 분석보다 RFM 분석 쪽이 조금 더 직관적으로 느껴졌다. 고객을 최근성, 구매 빈도, 구매 금액 기준으로 나누고, 그걸 바탕으로 점수를 만들어 세그먼트로 나누는 방식이라서 “이걸로 고객을 나눠서 마케팅하겠구나”가 바로 보였다. 실습에서는 먼저 결측치와 이상치를 처리하고, 나이와 구매 금액, 구매 횟수 관련 파생변수를 만들었다. 그리고 Recency, Frequency, Monetary를 각각 등급화한 뒤 최종 RFM 점수를 계산해서 고객 세그먼트를 나눴다. 여기서도 단순히 점수만 계산하는 게 아니라, 세그먼트별 연령대 비중, 품목별 매출 기여도, 프로모션 참여율까지 같이 봤다. 그러니까 “이 고객군은 이런 특징이 있고, 이런 상품을 많이 사고, 프로모션 반응은 이렇다” 같은 식으로 해석이 가능해졌다. RFM 분석을 보면서 느낀 건, 점수 자체보다 그걸 가지고 무슨 행동을 할 건지가 더 중요하다는 점이었다. 단순히 1등급, 2등급, 3등급으로 나누는 게 목적이 아니라, 그 세그먼트를 보고 어떤 고객에게 어떤 전략을 써야 할지를 생각해야 하니까 말이다. 예를 들어 최근성은 낮지만 구매 빈도와 금액이 높은 고객, 혹은 구매는 자주 하지만 금액은 적은 고객은 전부 다른 성향으로 봐야 한다는 게 확실히 이해됐다. 이건 진짜 마케팅이랑 바로 연결될 수밖에 없는 분석이라는 생각이 들었다.
🥊넘 힘들다!!!
이날 수업은 내용 자체가 흥미 없는 건 아니었는데, 중간에 졸기도 많이 졸았다. 안 졸고 들어도 이게 무슨 소리지? 싶은 부분이 조금 있었는데 졸기까지 하니까 더 정신이 없었다. 특히 코호트 분석 쪽은 개념이 익숙하지 않아서 더 그랬던 것 같다. 그래서 이날은 진짜 복습이 많이 필요하겠다고 느꼈다. 그냥 배웠다 수준으로 넘기면 안 될 것 같고, 코호트랑 RFM은 한 번 더 정리하면서 내가 직접 다시 흐름을 써봐야 할 것 같다. 17시부터는 자율학습을 진행했다.

그리고 내일부터는 Amplitude라는 걸 사용한다고 하셔서 회원가입도 해두었다. 처음 듣는 툴인데 써보게 된다고 하니까 좀 궁금했다.
📝마무리
이날은 연휴 끝이라 몸도 마음도 좀 늘어져 있었는데 수업 내용까지 쉽지는 않아서 더 피곤하게 느껴진 하루였다. 그래도 코호트 분석과 RFM 분석을 실제 코드와 함께 보니까 그냥 정의만 볼 때보다 훨씬 더 이해가 됐다. 물론 아직 완전히 편한 수준은 아니다. 특히 코호트 분석은 다시 봐야 할 것 같고, RFM도 계산보다는 해석 쪽을 더 고민해봐야 할 것 같다. 그래도 적어도 이 분석이 왜 필요한지는 조금씩 보이기 시작한 것 같아서 그건 다행이다. 내일부터는 또 새로운 툴도 써보고, 다른 방식으로 데이터를 보게 될 것 같다. 연휴 끝나고 다시 시동 거는 날이었는데 어쨌든 버텼다. 내일도 화이팅.
😊2026.05.07 목
📊Amplitude로 하는 프로덕트 데이터 분석
이날은 Amplitude로 하는 프로덕트 데이터 분석 이론 데이였다.

새로운 툴을 배운다고 해서 살짝 긴장했는데 막상 수업을 들어보니 SQL이나 파이썬처럼 직접 코드를 치는 방식이 아니라 UI 기반으로 분석을 하는 도구라서 훨씬 직관적으로 느껴졌다. 솔직히 말하면 이런 류의 툴이 확실히 더 재밌다!! 화면에서 바로바로 바뀌는 걸 보는 맛이 있어서 그런 것 같다.
수업 초반에는 Amplitude가 어떤 도구인지, 뭘 할 수 있는지부터 설명해주셨다. 사용자 행동 데이터를 이벤트 단위로 수집하고, 그걸 바탕으로 프로덕트 성과를 분석하는 도구라고 하셨다. 방문자 수, 특정 기능 사용량, 전환율 같은 걸 비교적 쉽게 볼 수 있고, Segmentation, Funnel, Journeys 같은 기능으로 사용자 행동을 분석할 수 있다고 하셨다. 듣다 보니 결국 핵심은 이벤트였다. 어떤 행동을 이벤트로 잡고, 그걸 어떤 방식으로 집계하느냐에 따라 보고 싶은 숫자가 달라지는 구조였다.
📈Segmentation 차트 실습
이날은 Segmentation 차트를 중심으로 실습을 진행했다.

조건에 따라 사용자나 이벤트를 나누고 비교하는 차트라고 설명해주셨는데 말보다 직접 해보니까 훨씬 이해가 잘 됐다. 이벤트를 고르고, 필터를 걸고, 그룹을 나누고, 집계 방식을 바꾸면 같은 데이터도 전혀 다르게 보였다. 예를 들어 고유 유저 수를 보느냐, 총 이벤트 수를 보느냐, 특정 속성의 합계를 보느냐에 따라 완전히 다른 질문에 답할 수 있다는 게 꽤 흥미로웠다. 파이썬이나 SQL에서는 내가 직접 다 계산해서 만들어야 했던 걸, 여기서는 UI에서 조합해서 바로 볼 수 있다는 점이 편하고 재밌었다.
실습하면서 제일 인상 깊었던 건 필터를 어디에 거느냐에 따라 결과가 달라진다는 점이었다.


특히 비율 문제에서 그랬다. 예를 들어 전체 유저 중 특정 조건의 구매 유저 비율을 보고 싶은 건지, 특정 조건의 유저들 중 구매 유저 비율을 보고 싶은 건지에 따라 Events 쪽에 필터를 거는지, Segment by 쪽에 필터를 거는지가 달라졌다. 겉으로 보기엔 비슷한 질문 같아도 분모와 분자가 달라지면 완전히 다른 계산이 되는 거라서, 이 부분이 꽤 중요하게 느껴졌다. 이건 그냥 툴 사용법이라기보다 분석할 때 질문을 정확히 이해해야 한다는 얘기랑도 연결되는 것 같았다.
실습은 강사님께서 먼저 보여주시고, 우리가 따로 진행해보고, 다시 설명해주시는 식으로 진행되었다. 기본으로 제공되는 이커머스 데이터를 사용했는데 문제들도 실제로 많이 볼 법한 질문들이라 재밌었다. 신규 가입자 수, 무료 배송 코드 적용 구매자 수, 프로모션별 구매 유저 수, 상세 페이지 조회 대비 구매 비율, 국가별 구매 유저 수, 미국 유저 관련 비율 계산, 상품 상세 조회수와 장바구니 추가 수 추이 같은 것들을 하나씩 해봤다. 이런 식으로 질문이 구체적으로 주어지니까 이럴 때 이 기능을 쓰는구나가 바로 연결돼서 좋았다. 무엇보다 나는 역시 코드만 치는 것보다 이런 툴을 직접 만지는 게 더 재밌다. 화면에서 바로 결과가 보이고, 필터 걸고 차트 바꾸고 하는 과정이 확실히 덜 지루하다!
📝마무리
배운 내용을 바탕으로 마지막에는 사지선다 6문제를 풀고 수업이 마무리되었다. 문제 수는 적었지만 배운 내용을 가볍게 다시 확인하기에는 괜찮았다. 17시부터는 자율학습 시간이라, 나는 어제 했던 코호트 분석과 RFM 분석 실습 코드를 다시 복습했다. 이날 수업도 있었지만 솔직히 전날 내용이 아직 덜 익숙해서 그냥 넘어가면 안 될 것 같았다. 특히 코호트 분석 쪽은 다시 안 보면 금방 흐려질 것 같아서 한 번 더 보는 쪽을 택했다. 요즘 배우는 양이 많다 보니 새 내용 따라가는 것도 중요하지만 예전 내용 잊어버리지 않게 다시 보는 시간도 꼭 필요한 것 같다.
어쨌든 이날은 예상보다 훨씬 재밌었다. Amplitude는 결국 이벤트를 기준으로 데이터를 보고, 필터와 그룹, 집계 방식과 공식을 조합해서 원하는 지표를 바로 확인할 수 있다는 점이 되게 직관적으로 느껴졌다. 물론 아직은 필터를 어디에 거는지, 공식에서 분모랑 분자를 어떻게 두는지 같은 부분이 살짝 헷갈리긴 한다. 그래도 문제를 하나씩 따라가면서 해보니까 금방 감이 오는 부분도 있었다. 이런 툴은 직접 만져보는 게 제일 중요한 것 같다. 남은 내용은 내일 이어서 나간다고 하셨다. 벌써 금요일이라니 너무 좋다. 내일도 잘 버텨보자!
😌2026.05.08 금
🖥️이어서 Amplitude
이날도 이어서 Amplitude로 하는 프로덕트 데이터 분석 이론을 나갔다. 어제는 Segmentation 차트를 중심으로 배웠다면, 오늘은 Funnel 차트와 Journeys 차트가 중심이었다. 솔직히 말하면 이날 내용이 개인적으로는 더 재밌었다. 아무래도 전환이나 사용자 행동 경로처럼 '그래서 사람들이 어디서 빠지고, 어디서 이어지는가'를 보는 분석이 훨씬 눈에 잘 들어왔기 때문이다.
Funnel 실습에서 특히 재밌었던 건 특정 단계를 선택적으로 두거나, 두 경로를 비교하거나, 아예 하나의 단계로 합쳐서 볼 수 있다는 점이었다.



예를 들어 어떤 단계는 꼭 거쳐도 되고 안 거쳐도 되는 경우가 있는데, 그걸 Optional step으로 둘 수 있다는 게 꽤 유용해 보였다. 그리고 특정 단계에서 어떤 이벤트와 어떤 이벤트가 더 효과적인지도 Compare Event로 비교할 수 있었고, 비슷한 성격의 이벤트를 하나처럼 보고 싶을 때는 Combine events inline을 쓰는 방식도 배웠다. 이런 기능들을 보면서 툴이 진짜 잘 만들어졌네 싶었다. 코드로 직접 짜려면 꽤 번거로울 것 같은 걸 UI에서 바로 설정해서 볼 수 있으니까 확실히 편했다.
이후에는 Journeys 차트를 배웠다. 개인적으로는 Funnel보다 Journeys 차트가 더 재밌었다.



사용자의 행동 경로를 시각적으로 보여주니까 확실히 사람들이 이렇게 움직이는구나가 바로 보였다. 특히 재밌었던 건 Funnel과 Journeys를 서로 오갈 수 있다는 점이었다. Journeys 차트에서 특정 경로를 클릭하면 Funnel 차트로 넘어가고, Funnel 차트에서 다시 Journeys를 볼 수도 있었다. 이게 왜 좋냐면, Funnel에서는 여기서 이탈이 크네를 보고, Journeys에서는 그럼 실제로 사람들은 어디로 빠졌지?를 바로 볼 수 있기 때문이다. 그러니까 한쪽은 전환율을 보고, 다른 한쪽은 실제 행동 경로를 보는 역할이라고 느껴졌다. 이 부분에서 아 이게 진짜 프로덕트 분석 툴이구나 싶은 생각이 들었다. 단순히 예쁜 그래프가 아니라, 문제를 찾고 원인을 추적하는 데 쓰는 도구라는 게 더 잘 보였다.
Funnel과 Journeys 차트 실습이 끝난 뒤에는 Data Table, Sessions, Retention, Stickiness, Lifecycle 차트도 간단히 봤다. 이건 오늘처럼 하나하나 문제를 풀면서 깊게 실습하진 않았고, 강사님께서 차트 만드는 걸 보여주시면서 이런 것도 있다 식으로 소개해주셨다. 그래서 그런지 솔직히 이쪽은 아직 감이 잘 안 잡힌다.
🙌Amplitude 끝!
Amplitude 이론도 끝이 났다. 아직 완벽히 다 안다고 할 수는 없지만, 적어도 이제는 Segmentation, Funnel, Journeys 차트는 어떤 상황에서 쓰는지, 대충 어떻게 설정하는지는 알게 된 것 같다. 무엇보다 '또 하나의 툴을 배웠다'는 사실 자체가 꽤 기분 좋았다.
예전에는 그냥 들어본 적도 없는 툴이었는데 이제는 실제로 직접 만져봤고 기본적인 기능은 써볼 수 있는 사람이 된 거니까 그게 나름 뿌듯했다! 이론이 다 끝난 뒤에는 강사님께서 지금까지 배운 Amplitude 이론을 한 번 전체적으로 정리해주셨다. 그리고 17시부터 자율학습 시간이 주어졌는데 나는 또 어제처럼 파이썬으로 했던 비즈니스 분석 실습 내용을 다시 복습했다...ㅋㅋ
📝마무리
이날은 Amplitude 이론 중에서도 특히 재미있게 들은 날이었다. Funnel 차트와 Journeys 차트는 숫자랑 행동 경로를 같이 볼 수 있다는 점에서 확실히 매력적이었다. 특히 퍼널에서 전환이 떨어지는 구간을 보고, 저니에서 실제로 어디로 빠지는지를 같이 보는 방식이 되게 인상적이었다. 아직 다른 차트들은 감이 덜 오지만, Segmentation, Funnel, Journeys는 어느 정도 손에 익기 시작한 것 같다. 다음 주 월, 화요일에는 이걸로 스프린트 미션도 진행한다고 하셔서 조금 기대된다. 실제로 내가 직접 문제를 풀어보면 더 잘 익을 것 같기 때문이다. 이번 주도 고생 많았다!
💎데이터 분석가 부트캠프 Week 9 마무리
Week 9는 연휴가 끝난 뒤 다시 공부 흐름을 잡아가는 주였다... 초반에는 코호트 분석과 RFM 분석을 실습하면서 고객을 단순히 전체 평균으로 보는 것이 아니라, 유입 시점과 구매 행동 기준으로 나누어 해석하는 방법을 배웠다. 아직 코호트 분석은 다시 봐야 할 만큼 낯설었지만, 유지율을 직접 계산하고 시각화해보면서 왜 이 분석이 필요한지는 확실히 느낄 수 있었다.
그리고 이번 주의 가장 큰 내용은 Amplitude였다. 처음 써보는 툴이라 걱정도 있었지만, 막상 사용해보니 이벤트, 필터, 그룹, 집계 방식을 조합해서 원하는 지표를 바로 볼 수 있다는 점이 꽤 직관적이었다. 특히 Segmentation, Funnel, Journeys 차트를 실습하면서 사용자 행동 데이터를 어떻게 분석하고, 어디서 전환이 떨어지는지, 사용자가 실제로 어떤 경로로 이동하는지를 보는 과정이 재미있었다. 이번 주는 내용도 많고 중간중간 피곤하기도 했지만, 그래도 새로운 분석 방법과 새로운 툴을 하나 더 배웠다는 점에서 꽤 의미 있는 한 주였다. 아직 완벽하게 익숙한 건 아니지만, 다음 주 스프린트 미션에서 직접 Amplitude를 더 써보면 조금 더 손에 익을 것 같다. Week 9도 어찌저찌 잘 버텼다!
'Codeit Sprint > 수업 기록' 카테고리의 다른 글
| [코드잇 스프린트] 데이터 분석가 부트캠프 Week 8 기록 (1) | 2026.04.30 |
|---|---|
| [코드잇 스프린트] 데이터 분석가 부트캠프 Week 7 기록 (1) | 2026.04.28 |
| [코드잇 스프린트] 데이터 분석가 부트캠프 Week 6 기록 (1) | 2026.04.17 |
| [코드잇 스프린트] 데이터 분석가 부트캠프 Week 5 기록 (0) | 2026.04.17 |
| [코드잇 스프린트] 데이터 분석가 부트캠프 Week 4 기록 (0) | 2026.04.16 |
