profile
거인의 어깨에 올라서서 더 넓은 세상을 바라보라 - 아이작 뉴턴
post-thumbnail

[Build GPT-4] Residual Block and LayerNorm

지금까지 위 Transformer Decoder에 위치하는 대부분의 component들에 대해 알아보았다.순서대로 나열해보면Token EmbeddingPositional EmbeddingSelf-AttentionMasked Multi-Head Attention이렇게 알

3일 전
·
0개의 댓글
·

[Build GPT-3] Self-attention

이전까지 Model을 만들어내는 것 까지 완료를 했다.그런데 아직 모델은 좋은 생성모델이 아닌 상태. (막무가내 출력)어떻게 좋아지게 만들까..Toy example로 self-attention의 트릭을 살펴보자.먼저 B, T, C 의 데이터를 만들어본다.이전 데이터셋을

2024년 7월 19일
·
0개의 댓글
·

[Build GPT-2] Model

이제 모델을 보자.이 예시에서는 가장 간단한 예시인 bigram language model을 사용한다.먼저, pytorch를 임포트 해준다.여기서 nn.Embedding(num_embeddings, embedding_dim)이 중요한데,num_embeddings(int

2024년 7월 19일
·
0개의 댓글
·

[Build GPT-1] Dataset

Reference : Let's build GPT: from scratch, in code, spelled out. (youtube) get-dev.ipynb (Colab) 이 post는 위 유튜브 영상을 기반으로 만들어졌습니다. Dataset 준비 shakesp

2024년 7월 19일
·
0개의 댓글
·
post-thumbnail

To Believe or Not to Believe Your LLM

GOAL : Uncertainty quantification in large language models (LLMs)위 논문에서는 LLMs에서의 불확실성 측정을 다룬 논문.Decouple Epistemic and aleatoric uncertaintyAim to ide

2024년 7월 17일
·
0개의 댓글
·

[conda] Conda source

source <path to miniconda3>/etc/profile.d/conda.sh

2024년 6월 2일
·
0개의 댓글
·
post-thumbnail

[ICLR 2024] DREAMLLM: SYNERGISTIC MULTIMODAL COMPREHENSION AND CREATION

DREAMLLM: SYNERGISTIC MULTIMODAL COMPREHENSION AND CREATION (ICLR 2024 Spotlight)AbstractDREAMLLM은 처음으로 다목적 MLLM(Multimodal Large Language Models)을 제안

2024년 5월 28일
·
0개의 댓글
·

[NeurIPS 2022] Mind the Gap: Understanding the Modality Gap in Multi-modal Contrastive Representation Learning

https://arxiv.org/abs/2203.02053해당 논문은 제목에서 보시는 것 처럼 Multi-modal Contrastive Representation Learning에서 Modality Gap을 발견한 첫번째 논문입니다.Modality Gap이란

2024년 5월 27일
·
0개의 댓글
·
post-thumbnail

[NeurIPS 2023] Geodesic Multi-Modal Mixup for Robust Fine-Tuning

Geodesic Multi-Modal Mixup for Robust Fine-Tuning (2023 NeurIPS) 입니다.https://arxiv.org/abs/2203.03897본 논문에서는 CLIP(multi-modal foundation model)이

2024년 5월 23일
·
0개의 댓글
·

pid의 사용자 확인하기

ps -f -PID로 확인

2024년 5월 9일
·
0개의 댓글
·

CC12M 데이터셋 사용해보기

CC12M을 다운받으려면 일단 img2dataset library가 필요하다.https://github.com/rom1504/img2dataset !!wget https://storage.googleapis.com/conceptual_12m/cc12m

2024년 4월 23일
·
0개의 댓글
·

ddp allocate gpu 0

all_reduceall_gatherJust had the same problem and debugged it. You need to put

2024년 4월 17일
·
0개의 댓글
·

[pytorch] jupyter notebook gpu지정

os.environ\["CUDA_VISIBLE_DEVICES"]= 사용하고자 하는 GPU

2024년 3월 11일
·
0개의 댓글
·

[pytorch]nn.BatchNorm2d()

BatchNorm2d는 4D input (a mini-batch of 2D inputs with additional channel dim)에 적용되는데, Internal Covariate Shift는 줄여주는 역할을 한다고 함.코드는 아래와 같이 동작 시킬 수 있음$$

2024년 3월 2일
·
0개의 댓글
·
post-thumbnail

[Pytorch]nn.Conv2d()

CONV2DPytorch Conv2d linkConvolutional layer란 무엇인가 ?Convolutional network를 구성하는 layer를 의미하는데, 이미지 데이터를 위해 설계된 네트워크이다. 그러면 기존의 Fully connected layer와는

2024년 2월 29일
·
0개의 댓글
·
post-thumbnail

[NeurIPS 2023] LoCoOp : Few-Shot Out-of-Distribution detection via Prompt Learning

오늘 공유드릴 논문은LoCoOp : Few-Shot Out-of-Distribution detection via Prompt Learning으로 NeurIPS 2023에 poster로 발표된 논문입니다.해당 논문은 CLIP을 기반으로한 few-shot Fine-tuni

2024년 1월 16일
·
0개의 댓글
·
post-thumbnail

[ICLR 2022] VOS : Learning What You Don't Know By Virtual Outlier Synthesis

VOS : Learning What You don’t Know By Virtual Outlier Synthesishttps://arxiv.org/abs/2202.01197은 ICLR 2022에서 발표된 논문으로, virtual outlier를 만들어 내는 것으

2024년 1월 13일
·
0개의 댓글
·
post-thumbnail

[NeurIPS 2023] Learning to Augment Distributions for Out-of-distribution detection

오늘 공유드릴 논문은Learning to Augment Distributions for Out-of-distribution detectionhttps://openreview.net/pdf?id=OtU6VvXJue이라는 논문으로 NeurIPS 2023에서 발표된

2024년 1월 9일
·
0개의 댓글
·

[linux] Process 죽이기

linuxkill -9 PIDtmuxtmux kill-session -t {{session number}}

2024년 1월 8일
·
0개의 댓글
·
post-thumbnail

[ICCV 2021] JEM++: Improved Techniques for Training JEM

오늘 소개드릴 논문은JEM++: Improved Techniques for Training JEMhttps://arxiv.org/abs/2109.09032로 ICCV 2021에 발표된 논문입니다.제목에서도 알 수 있듯이, 저번에 소개드렸던 JEM (Joint

2024년 1월 6일
·
0개의 댓글
·