profile
벨로그에 생각을 임시로 저장합니다. 틀린건 틀렸다고 해주세요 :) 그래야 논리 학습이 강화됩니다.

JSP Java Beans 생성자가 두개 있는 이유

도구와 프레임워크에 의한 인스턴스화: 기본 생성자를 통해 JSP, Servlet 등의 Java Beans 프레임워크에서 인스턴스를 생성하기 위해Serialization and Deserialization: 기본 생성자는 Java Beans 객체를 Serializatio

4일 전
·
0개의 댓글
·
post-thumbnail

2021년에 이미 언급한 간편인증 보안문제 이제야 정부에서 확인

2021년 12월 8일에 쓴 "간편인증서 보안 문제"이미 2021년에 언급한 보안문제가이제야서 수면위에 올라왔다.뚫린곳은 도로교통공단뿐만이 아니다.분명 건강보험공단도 뚫렸다.아마도 건강보혐료 최대치를 내는 사람을 찾기 위한 작업이였으리 생각 된다.여기서 더 큰문제는 도

2024년 4월 29일
·
0개의 댓글
·

apple vision pro 사업 아이디어

아이디어 경로: 고프로 착용하고 축구하는 유튜버고프로와의 좋은 차이시선 트렉킹을 저장 할 수 있음depth를 느낄 수 있음현장감이 더 생생함고프로와의 안좋은 차이공유 할 수 있는 플랫폼이 아직 없음같은 기기를 착용 해야 시청 할 수 있음주변 시야가 좁을 수 밖에 없다화

2024년 2월 14일
·
0개의 댓글
·

ResNet 차원을 늘리고 줄이는 이유

중에서 input_planes가 16,32,64 로 바뀌는 이유는...ResNet 아키텍처에서 평면(채널) 수의 변경은 사용되는 특정 ResNet 변형에 기반합니다. 일반적으로, 한 "레이어"에서 다음으로 넘어갈 때 평면 수가 증가합니다. 예를 들어, ResNet-34

2024년 2월 14일
·
0개의 댓글
·
post-thumbnail

Residual Block in ResNet, identity connection in PyTorch

코드 출처중여기서 shortcut은 그림에서identity connection을 의미한다.element wise addition을 하려면 차원의 동일해야 되니,을 넣는 것 이다.stride가 2이상일 경우는 크기가 축소 될 것 이고input(in_planes)과 ou

2024년 2월 14일
·
0개의 댓글
·

multi-head Attention의 필요성

context를 더 많이 담기 위해.각 attention 마다 다른 context를 담을 수 있음.즉 더 많은 정보를 담기 위해.예) "I gave my dog Charlie some food"attention 1 = gave -> Iattention 2 = gave

2024년 1월 31일
·
0개의 댓글
·

Add & Norm 블록에 왜 두개의 input 브랜치가 필요한가

Gradient Normalization(Norm):Gradient normalization rescales the gradients to have a fixed norm, such as unit norm or a desired norm. This can prevent

2024년 1월 31일
·
0개의 댓글
·

Query, Key, Value Weights

Observed Datay, x2, 43, 64, 8x = weightx can be a vectorTrained Weight = 2y = 2xwhenever there's a vector and y, you can use A.I. or in other words yo

2024년 1월 31일
·
0개의 댓글
·

메타버스, 게임회사, 원격 로봇, 그리고 Transformer

과거 메타버스가 왜 중요하고 그리고 게임회사의 가치가 중요한 지 가리키는 글을 썻다.더 과거로 가보면 테슬라가 보는 더 먼 미래에 대해서 썼다. 그리고 인공지능을 왜 다시 배워야 하는 지도 썼다.또한, 글로는 쓰지 않았지만 한국은행에서 올해 모의 CBDC을 실행을 한다

2024년 1월 31일
·
0개의 댓글
·

attention 과 self-attention 차이 예제로 요약

task주어진 영어 문장을 한국어로 번역 하시요.inputthe cat didn't cross the street.답그 고양이는 길을 건너지 않았다.attention"the cat" = "고양이"와 연관성self-attention"the"와 "cat"의 연관성

2024년 1월 30일
·
0개의 댓글
·

트랜스포머 중요한 틀

트랜스포머, 파인튜닝, 전이 학습 = 다시 '답'을 어떠한 형태로 넣을 것인가

2024년 1월 29일
·
0개의 댓글
·

금융에 트랜스포머는 적용 불가

트랜스포머를 적용 할 수 있는 분야는 쉽게 repeat 가능 한 분야 이다. 그러나 금융 분야는 그렇지 않다. 과거 데이터로 과거와 미래를 나눌 수는 있는데 미래를 그릴 수는 없다. 왜냐하면 미래가 과거 데이터에 비추어 볼 때 매우 어긋나는 일들이 많기 때문이다. 예를

2024년 1월 26일
·
0개의 댓글
·

추천 - 쉬운 트랜스포머 관련 책

나는 답을 봐야 빨리 이해 한다.그래서 어떻게 하면 transformer를 여러 분야에 적용 할 수 있고 쉽게 적용 가능 한지 알고 싶었다.운좋게도 그런 책을 찾았다.트랜스포머 with 파이토치예전에는 text의 감정을 분류 하려면 유/무료로 api를 써야 했다. 파인

2024년 1월 26일
·
0개의 댓글
·

유튜브로 트랜스포머 겉핥기

MIT 101매우 high level로 설명해서 이해하는데 매우 쉬움트랜스포퍼에 대한 큰 픽쳐 만들어 줄 수 있다.Standford트랜스포퍼가 탄생한 배경에 대해 알려주고 시작하여, 왜 이렇게 발전 했지를 알려줌허민석 설명듣고 있으면 이해하는 듯 보이나, 실제로 알아들

2024년 1월 26일
·
0개의 댓글
·

다시 인공지능 공부 할 시간

2019년 때만 해도인공지능을 구현만 해도 취직이 되었고 사람들이 놀라워 했다.그러나, 현재는 아니다5년이라는 시간이 지났다.이제 모두가 안다.모델은 만든 사람들이 천재이지구현을 하는 사람은 아니라는 걸그래서 데이터가 중요한 것이지 모델링 자체는 필요 없다는 걸왜냐하면

2024년 1월 26일
·
0개의 댓글
·

내년 LLM에 넣을 데이터 현저히 작아진다.

LLM이 트레이닝 속도 생산성은 높아짐논문 같은 고급 텍스트 데이터의 생산량은 그대로OPEN AI가 시장 점유율은 압도적이지만기술적으로는 거의 모든 테크 기업의 LLM이내년부터 비슷해 질 것다른말로는 더이상 LLM 트레이닝을 위한 서버를 증산할 필요가 없다.반도체 생산

2023년 12월 23일
·
0개의 댓글
·

확률상 화폐가치 대비 인덱스 주식투자는 항상 마이너스 일 수 밖에 없다.

2000~2023달러 M2 4.5배(https://fred.stlouisfed.org/series/M2SLSPY 대략 4배2000~2023원화 M2 5.7배KOSPI 5배양도소득세 및 매도 수수료를 포함 하면 화폐가치 대비 수익률을 현저히 낮을 것 이다.

2023년 12월 14일
·
0개의 댓글
·

일상 생활에도 유용한 프로그래밍 지식

제가 코딩을 좋아 하는 것은,코딩을 하다 보면 일상 생활에서의 insight를 줍니다.가령 object 라는 개념을 설명하고 예제로 드리면,혼자서 하면 굳이 모듈라를 할 필요가 없다.그러나, 현업에서는 협업을 해야 합니다. 그래서 모듈화가 필요 합니다.object가 그

2023년 10월 19일
·
0개의 댓글
·
post-thumbnail

클라우드 게이밍 시장 조사 및 노트

Data가 어떻게 취합 되었는지는 모르겠으나 2022년까지는 확실히 커지고 있었음예측 전망치는 좋음remote play와 다른 점은 기기를 보유 하고 있지 않아도 되는 점 그러나 기술 구현은 비슷하다.IMAGE ALT TEXT HEREIMAGE ALT TEXT HERE

2023년 10월 16일
·
0개의 댓글
·

손가락은 기억하고 있다.

구글에서 구글답지 않은 선택을 했다.바로 비직관적인 제스쳐 인식이다.유튜브에서 전체화면을 확대하려면 위로 향하게 해야 한다.반대로 닫을려고 하면 아래로 내려야 한다.언뜻보면 직관적이다.왜냐면 컴퓨터에서 그렇게 하니깐.창을 최소화 할 때 창은 올라가지 않고 내려가고창을

2023년 4월 17일
·
0개의 댓글
·