목록전체 글 (176)
Yours Ever, Data Chronicles
숫자를 돈으로 바꾸는 데이터 읽기의 기술 - 차현나 지음, 청림출판(2019) 이 책은 인턴 시절, 다른 인턴 분의 추천으로 동저자의 ‘데이터 쓰기의 기술’이라는 책을 읽어본 적이 있었는데, 이 책의 내용이 좋아서 같은 시리즈였던 ‘데이터 읽기의 기술’은 직접 구매하여 읽어보았다. 이 책은 '데이터 분석'을 아예 모르는 사람들보다는 한번쯤 들어 보았고, 간단한 분석이라도 한번 해본 사람들에게 추천하는 책이다. 왜냐하면 분석을 하면 할수록 생기는 어려움 중 하나인 '배경 지식(암묵지)'에 관한 내용 위주로 들어 있기 때문이다. 데이터 분석을 아예 모르고 처음 접하는 사람들은 데이터 분석은 기술만 있으면 된다고 생각한다. 이를테면 Python, R 등으로 코딩을 잘 해야 하고 머신러닝 몇 개 정도 해보면 곧..
오늘은 초보 데이터 분석가(비즈니스 데이터 분석가(Business Analyst), 데이터 분석가(Data Analyst), 데이터 사이언티스트(Data Scientist))로서 '데이터 분석' 일을 시작하게 되었을 때 마주할 수 있는 어려움에 대한 포스팅을 하고자 한다. 이 글을 읽을 분들은 아마 나처럼 초보 데이터 분석가로서 일을 하는 인턴이나 사회초년생 분들이 많을 것 같은데, 결론부터 이야기하자면 데이터 분석에서 어려운 점은 언어나 기술(Python, R, SQL 등..)이 부족해서가 아니다. 데이터 분석가로서 일을 하신다면 어느 정도 기술력은 기본은 갖추고 계실 것이고, 더 중요한 것은 기술 바깥의 것들임을 (내가 많이 느꼈기에) 인턴생활 6개월을 되돌아보면서 이 글을 쓴다. 나는 작년에 6개월..
일 잘하는 사람은 단순하게 말합니다 - 박소연 지음, 더퀘스트(2020) 이 책은 작년에 한창 인턴생활하던 시절에 사 두고는 안 읽고 있다가 이제서야 읽은 책이다. 인턴을 하고 있을 때 내가 가장 힘겨웠던 것은 바로 ‘의사소통’이었는데, 확실히 학생 때와는 다르게 직장에서 사용하는 언어는 엄청난 차이가 있었다. 처음에 아주 생소한 용어들(AS-IS, FYI, forwarding 해주세요, 등등..)을 들을 때마다 저게 무슨 말인지 싶어 집에 와서 찾아보기도 했었고(직장에서 다른 분들께 여쭤봐도 되지만, 뭔가 부끄러웠다) 학교에서는 공부만 열심히 하면 되고, 교수님 수업만 잘 들으면 학점이 잘 나왔었는데 직장에서는 ‘실적’을 내야 하고, 실적을 냈더라도 이를 제대로 전달하지 않으면 아무도 그 고생을 알아주..
(슈퍼리치 황금의 문을 여는) 부의 마스터키 : UNLOCK IT 댄 록 지음, 출판사: 서영 (2021) 이 책은 부자가 되고 싶다는 열망이 있는 사람이라면 꼭 추천하고 싶은 책이다. 책 이름에서처럼, 부자가 되기 위해 필요한 마스터 키(key)를 구체적으로 알려주고 있다. 이 책은 우연히 사업과 관련한 책으로 추천을 받아 읽어보게 되었다. 읽기 전에는 진부한 내용들이 많을 거 같았지만, 이 책의 서문을 읽고는 바로 이 책을 꼭 읽어봐야겠다는 생각이 들었다. 이 책의 서문은 이렇게 시작한다. 나는 당신이 왜 이 책을 읽기 시작했는지 모른다. 하지만 한 가지 분명한 사실은 당신은 이 책을 읽으면 읽을수록 더 많은 것을 알고 싶을 거라는 사실이다. 알다시피, 많은 사람들은 자신의 인생을 바꾸려는 것에 그렇..
저번 포스팅에 이어, 이번에는 이용이력(ul) 데이터를 가공하여 사전 분석을 실시한다. ✔Table of Contents Tech 25. 이용이력 데이터를 집계하자. 이용이력 데이터는 저번 포스팅에서 했던 고객 데이터와 다른 점이 무엇일까? 바로 고객 데이터와는 달리, 회원이 스포츠센터를 이용할 때마다 시간이 찍히기 때문에 시간적인 요소를 분석할 수 있다. 예를 들어 한 달 이용 횟수의 변화나, 회원이 스포츠센터를 정기적/비정기적으로 이용하는지 와 같은 것들이다. 우리는 우선, 스포츠센터를 이용하는 회원들이 월별 몇 회를 이용하는지 그 평균값, 중앙값, 최댓값, 최솟값을 구해보도록 하자. 이용이력(ul) 데이터는 고객데이터와는 달리 customer_id가 중복이 있기 때문에(이용할 때마다 찍히는 데이터이..
안녕하세요, Everly입니다 :) 저번 포스팅(파이썬 데이터 분석 #1장, #2장)을 통해, 현장에서 데이터 분석을 어떻게 시작하는지에 대해 기본적인 내용을 공부했습니다. 이번 포스팅부터는 데이터 분석을 본격적으로 시작해 보겠습니다. 데이터 분석 업무를 한다는 것은 결국 '결과를 내기 위한' 것입니다. 여기에는 2가지 측면이 있는데요, 하나는 통계를 사용한 사전 분석으로, EDA라고도 합니다. 데이터를 찬찬히 뜯어보고, 가공하는 데이터 핸들링(data handling)을 하는 과정입니다. 이 과정에서 현재의 상황이 어떤지를 데이터를 통해 자세히 알아볼 수 있죠. 또한 이러한 현황 파악을 통해 어떠한 알고리즘을 적용하면 좋을지도 알 수 있습니다. 나머지 하나는 앞서 한 사전 분석을 토대로, 머신 러닝 알..
사람은 무엇으로 사는가 — 톨스토이 단편선 ① 레프 니콜라예비치 톨스토이 지음, 더클래식 정말 유명한 책인 톨스토이의 '사람은 무엇으로 사는가'. 간단한 단편 소설들을 묶은 책이라 약 3일 정도만에 다 읽었다. 부담 없는 내용에 술술 읽히는 소설이었다. 이 소설을 읽게 된 계기는 마음이 힘들 때, 내가 왜 살아야 하는지 모르겠을 때 읽으면 좋다고 해서 읽게 되었다. 나는 지금 내 인생의 뭐랄까.. 변곡점에 서 있는 느낌이다. 특히 학교와 직장이라는 울타리 없이 처음 지내보는 시간이기에 더 그랬다. 그래서 한창 인생의 의미는 무엇일까, 무조건 쉴틈없이 돈을 많이 벌면서 사는 삶이 가치있을까 하는 고민을 많이 했던 것 같다. 특히 쉴틈없이 달려온 일상 때문에 번아웃도 많이 온 상태였기 때문에. 책의 내용 중..
감사의 힘(Thank-you Power) - 데보라 노빌, 위즈덤하우스(2007) 이 책은 이전에 계절학기로 심리학 교양을 들었을 때, 교수님께서 추천해주셨던 책이다. ‘감사’를 많이 느끼는 사람은 행복해진다는 말씀을 해주신 적이 있는데, 사실 그 때는 그게 왜 중요하지? 라고 생각을 했고, 인생이 행복해지려면 감사가 아니라 다른 많은 것들—이를테면 돈, 사랑하는 사람이라고 생각했다—이 필요한 것이 아닌가 싶어서, 그냥 허울 좋은 소리일 뿐이라고 생각했다. 하지만 최근에는 학교도 졸업하고 인턴도 끝나서, 학교와 직장 둘 중 아무 곳에도 속해 있지 않은 현재의 위치와 상황 때문에 많은 스트레스를 받고 있었고, 특히 작년은(2021년) 많은 시간을 불평불만을 하며 살았기 때문에 내 처지를 비관했고 나 스스로..
안녕하세요! Everly입니다 🙂 오늘은 첫 저의 컬러 증명사진을 찍고 왔는데요ㅎㅎ 사실 사진찍기에 익숙하지 않은 저이다보니, 꼭 필요한 증명사진인 여권사진, 주민등록증사진 같은것들만 일반적인 사진관에 가서 간단히 찍은 게 다였어요. 마지막으로 찍은건 무려 2020년 겨울이었다는..ㅎ 그런데 요즘은 증명사진도 컬러 증명사진이 유행이죠! 저도 이력서에 부착할 취업사진을 위해 망원역에 위치한 '뮤트룸' 스튜디오에 다녀왔습니다. 우선 저는 취업사진이라 해도 그냥 일반적인 그런 밋밋한 정장입고 찍은.. 게 싫더라구요 🥲 어차피 단정하게만 보이면 되는 거! 예쁘게 찍고 싶었습니다ㅎㅎ (그리고 사실 기업 입장에서 사진은 많이 중요한 요소도 아니기 때문에..) 그래서 먼저 프로필 사진을 찍는 스튜디오를 알아봤는데, ..
저번 포스팅에서 이어서 '지저분한 데이터 가공하기'의 남은 부분을 공부해보자. 배우는 부분: 데이터 전처리 / 데이터 가공 / 엑셀 숫자 날짜로 변환 / 문자열 전처리 ✔Table of Contents Tech 16. 고객 이름 오류 수정하기 이번에는 'ko'라고 하는 데이터를 살펴보자. 이는 엑셀(xlsx) 데이터로, 많은 오류가 있다. ko.head() 보다시피 고객이름은 '김 현성'처럼 공백이 들어가 있으며, 등록일은 날짜타입으로 된 것도 있으나 숫자형태로 되어 있기도 하다. 이는 엑셀에서의 서식을 날짜가 아닌 다른 방식으로 지정했기 때문이다. 우선 고객 이름부터 수정해보도록 하자. 고객이름에는 공백이 두 번(" ") 들어있는 것도 있고, 한 번(" ") 들어있는 것도 있는데, 이러한 공백들을 모두..
저번 포스팅에서 다뤘던 쇼핑몰 데이터는 프로그램으로 알아서 데이터가 쌓이고 있어, 비교적 깨끗한 데이터였는데요. 하지만 이번 포스팅에서 다룰 데이터는 사람이 수기로 입력한 엑셀 데이터로, '지저분한 데이터'를 가공하는 방법을 포스팅해보겠습니다. 제가 회사에서 일했을 때의 데이터는 데이터베이스에서 내려받을 수 있는, 비교적 깔끔한 데이터였지만 아직까지 비즈니스 현장에서는 사람이 직접 손으로 입력한 데이터가 많습니다. 어떠한 데이터 형식으로 되어있든지간에, 개떡같은 데이터도 찰떡같이 분석하는 것이 데이터 사이언티스트라면 기본이겠죠? 이번 시간에 다룰 데이터는 가상의 대리점 데이터로, 매출현황과 고객정보가 들어있는 2개의 데이터를 제공받았습니다. - uriage.csv : 매출 이력 데이터, 상품 A~Z까지 ..
저번 포스팅에 이어서 이번에는 본격적으로 쇼핑몰 데이터의 주문 수를 기준으로 분석해 보겠습니다. 저번 포스팅에선 주어진 데이터가 있을 때, 어떻게 데이터들을 결합시키고 필요한 열을 만드는지를 위주로 보았습니다. 이번엔 만든 "join_data"를 가지고, 본격적인 분석을 시작해 보겠습니다! 앞서, 의뢰가 들어온 쇼핑몰에서는 현재 전체 매출액만 알고 있을 뿐, 데이터와 관련한 정보는 하나도 아는 것이 없었습니다. 우리는 이 데이터를 바탕으로 인사이트를 찾아야 하는데, 분석에 앞서 스스로 "질문해보는 것"이 아주 중요합니다. (궁금한 게 있어야 분석을 할 수 있으니까요!) 어떤 점이 궁금한가요? 궁금한 게 마땅히 떠오르지 않는다면, 먼저 데이터의 현 상황부터 파악해 봅시다! ✔Table of Contents..