Large Language Models are Zero-Shot Reasoners 논문 리뷰
Collaborative Filtering for Implicit Feedback Datasets (ALS) 논문 리뷰
LightGCN 리뷰
SWA (Stochastic Weight Averaging) 논문 리뷰
Dropout 리뷰
Decoupled Neural Interfaces (DNI) 리뷰
인간은 오차역전파로 학습하지 않는다
했던 말 또 하지 말고 요점만 간단히
헷갈리니까 테이블마다 메뉴 좀 통일해주세요
상품 카탈로그는 다항분포입니다
트랜스포머, 니가 그렇게 연산을 잘해? 옥상으로 따라와
이론과 현실의 괴리
변신로봇 아닙니다.
- Preprint on ArXiv Published on AAAI 24 요약 Original FF의 네트워크 구조를 엔트로피 관점에서 분석 FF는 레이어 간 소통이 원활하지 않아 정보량이 한정됨 (overfitting 위험 증가) Representation의 diversity와 confidence간 trade off가 존재 $\theta, \si...
1점짜리 답안지도 좋은 참고서가 될 수 있다고?
햇빛을 못 받으면 학습 효율이 떨어지는 이유
하지 말라는 것만 안 하면 문제가 안 생깁니다
가끔은 모델도 헝그리 정신이 필요하다
LLM 신께서는 모든 것을 아십니다. ...진짜로?