profile
Data Scientist, Data Analyst

글또 8기를 시작하며

데이터 분석가는 스토리텔링이 참 중요한 것 같다."어떻게 하면 이해가 잘되는 설명을 하고, 결과물을 깔끔하게 요약할 수 있을까?"란 고민은 매번 하는 것 닽다.글을 잘 쓰면 해결될 것이라고 생각한다. 고민을 많이 한 글을 읽어보면 생각의 정리를 위해 많은 시간을 소요

2023년 2월 12일
·
0개의 댓글
·

[HML Study] Chapter 6

오렐리앙 제롱, 『Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow』, 박해선, 한빛미디어-OREILLY(2020), p229-244. Learned 결정 트리 (Decision Tree) 분류, 회귀

2023년 1월 16일
·
0개의 댓글
·
post-thumbnail

G-sheet → BigQuery → Redash 연동

G-sheet를 어떻게 Redash에서 다른 테이블과 같이 쓸 수 있을까?

2023년 1월 16일
·
0개의 댓글
·
post-thumbnail

[Book Review] 데이터 스토리

낸시 두아르테, 『데이터 스토리』, 권혜정, 한빛미디어(2021) 📚 책 선정 이유 다양하게 들어오는 요청.. 요청자별 맞춤형 설명이 필요 (각자 중요하게 생각하는 부분이 다름, 알잘딱깔센.. 인사이트.. 너무도 어려운 것) 요청 사항보다 더 좋은 분석 결과를

2023년 1월 15일
·
0개의 댓글
·

[HML Study] Chapter 13

오렐리앙 제롱, 『Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow』, 박해선, 한빛미디어-OREILLY(2020), p503-540.데이터셋 APITFRecord 포맷TF 변환tf.data.Dataset

2023년 1월 12일
·
0개의 댓글
·

[HML Study] Chapter 3

오렐리앙 제롱, 『Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow』, 박해선, 한빛미디어-OREILLY(2020), p127-156. Learned 확률적 경사 하강법 (Stochastic Gradie

2023년 1월 6일
·
0개의 댓글
·

[HML Study] Chapter 10

오렐리앙 제롱, 『Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow』, 박해선, 한빛미디어-OREILLY(2020), p29-125. Learned Question Reference

2023년 1월 5일
·
0개의 댓글
·

[HML Study] Chapter 2

오렐리앙 제롱, 『Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow』, 박해선, 한빛미디어-OREILLY(2020), p29-125. Learned 상사에게 해야하는 질문 비즈니스의 정확한 목적 파악

2023년 1월 5일
·
0개의 댓글
·

[HML Study] Chapter 1

오렐리앙 제롱, 『Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow』, 박해선, 한빛미디어-OREILLY(2020), p29-125. Learned 데이터 마이닝 (Data Mining): 가끔 예상

2023년 1월 4일
·
0개의 댓글
·

[Apache Airflow] Chapter 1

출처: 바스 하렌슬락, 율리안 더라위터르.(2022). Data Pipelines with Apache Airflow. 제이펍방향성 비순환 그래프반복이나 순환을 허용 안함(acyclic)이전 작업이 완료되어야 다음 작업 진행 가능순환 그래프는 의존성으로 인해 논리적 오

2022년 12월 6일
·
0개의 댓글
·

How to reduce churn?

Customer Success: How to Reduce Churn and Increase Retention - Gustavo Escobar Henríquez 강의를 요약한 글입니다.신규 고객을 확보하는 것보다, 기존 고객의 이탈을 막는 것이 더 쉽다.고객의 이탈을 막

2022년 11월 30일
·
0개의 댓글
·

[XGBoost Study] Appendix

출처: 코리 웨이드.(2022). XGBoost와 사이킷런을 활용한 그레이디언트 부스팅. 서울:한빛미디어 LightGBM CatBoost Reference LightGBM 논문 LightGBM 논문 리뷰1 LightGBM 논문 리뷰2 LightGBM - 고려대 강

2022년 11월 23일
·
0개의 댓글
·

[XGBoost Study] Ch10. XGBoost 모델 배포

출처: 코리 웨이드.(2022). XGBoost와 사이킷런을 활용한 그레이디언트 부스팅. 서울:한빛미디어

2022년 11월 14일
·
0개의 댓글
·

[Transformer Study] Decoder, Transformer 종류

출처: Natural Language Processing with Transformers by Lewis Tunstall, Leandro von Werra, and Thomas Wolf (O’Reilly). Copyright 2022 Lewis Tunstall, Lea

2022년 11월 13일
·
0개의 댓글
·

[Transformer Study] Encoder

출처: Natural Language Processing with Transformers by Lewis Tunstall, Leandro von Werra, and Thomas Wolf (O’Reilly). Copyright 2022 Lewis Tunstall, Lea

2022년 11월 13일
·
0개의 댓글
·

[XGBoost Study] Ch9. 캐글 마스터에게 배우기

출처: 코리 웨이드.(2022). XGBoost와 사이킷런을 활용한 그레이디언트 부스팅. 서울:한빛미디어테이블 형태의 데이터(행과 열로 구성)에서 우수한 성능을 보임LightGBM (MS 개발)과 경쟁 구도개별 모델의 예측이 중요하지만, 더 높은 성능 달성을 위해서는

2022년 11월 6일
·
0개의 댓글
·

[Transformer Study] Transformer Architecture

출처: Natural Language Processing with Transformers by Lewis Tunstall, Leandro von Werra, and Thomas Wolf (O’Reilly). Copyright 2022 Lewis Tunstall, Lea

2022년 11월 6일
·
0개의 댓글
·

[XGBoost Study] Ch4. 그레이디언트 부스팅에서 XGBoost까지

출처: 코리 웨이드.(2022). XGBoost와 사이킷런을 활용한 그레이디언트 부스팅. 서울:한빛미디어 부스팅 부스팅: 개별 트리의 실수로부터 학습 이전 트리의 오차를 기반으로 새로운 트리를 훈련하는 것 잔차(=실제값 - 예측값)를 활용 개별 트리가 이전 트리를

2022년 10월 31일
·
0개의 댓글
·

npz vs pickle

ndarray를 저장하는 방법 중에 npz라는 파일 포맷이 있었다.numpy에서 지원하는 방법이며, ndarray를 저장할 때 pickle보다 여러 장점이 있다고 해서 찾아보게 되었다.결론부터 말하면ndarray를 저장하려고 한다면, npy/npz를 사용하는 것이 pi

2022년 10월 21일
·
0개의 댓글
·

Window 터미널 창 쪼개보셨나요?

mac을 오래 사용해온 user로써 terminal을 분리해서 사용하고 싶었다.window도 비슷한 기능이 있지 않을까?mac에서는 iterm2를 사용하면 분리가 잘됨!하지만 window prompt는?? → 안됨…열심히 구글링한 결과!! ⇒ microsoft 개발자들

2022년 10월 12일
·
0개의 댓글
·