PCA가 차원 축소를 위해 사용한다는 것 정도는 모두가 알고 있을 것이다.차원을 축소한다는 것은 무슨 의미이지? 저기 3차원 데이터 분포가 있다고 가정하자. 차원을 줄인다것은 저 데이터를 2차원 평면이나 1차원 직선으로 정사영 내린다는 것을 의미한다. 하지만 차원 축소
우리는 어릴 때 배운 수학지식들을 행렬에 대입하여 이해해왔다.(행렬곱이 합성함수라느니 역행렬이 역함수라느니 행렬이 함수라느니 등) 말이다.그런데 행렬에 인수분해도 가능할까? 가능하다. 행렬 또한 다른 행렬들의 곱으로 분해가 가능하다. 고윳값 분해(EVD) 그 유명한 S
우리가 선형대수를 공부하는 이유는 연립 일차 방정식을 풀기 위함이고 이를 위해 행렬과 벡터를 공부한다.이때 우리가 공부하는 행렬을 선형변환이라고 부른다."선형"이라는 말전에 변환은 또 뭐야?쉽게 말해서 함수라는 말이다. 우리가 벡터에 행렬을 곱하는 $Ax=y$에서 A를
full column matrix가 있다고 가정하자.예를 들어 10X3이라고 하자Ax의 의미가 기하학적으로 A의 column vector들로 span한 Vector space라고 배웠다.그렇다면 Ax=b의 의미는 Ax라는 subspace에 b가 있느냐 라고 묻는 문제로
대각합은 매우 정의가 쉽다 그냥 대각성분 다 더하면 된다. $tr(A+B)=tr(A)+tr(B)$$tr(cA)=ctr(A)$$tr(A^T)=tr(A)$$tr(AB)=tr(BA)$$tr(a^Tb)=tr(ba^T)$$tr(A)=\\sum\\limits_i \\lambda_
역행렬 정의부터 시작하자 $AB=I,BA=I$ 일때 B를 A의 역행렬이라고 하고$B=A^{-1}$로 표기한다.왜 역행렬이 중요할까? 다시 돌아가자 우리는 선형대수를 공부하는 것은 연립일차방정식을 풀기 위함이다.다음과 같은 연립일차 방정식이 있다고 가정하자.만약 A의 역
처음으로 돌아가서 우리가 선형대수학을 배우는 이유가 연립 일차 방정식을 풀기 위함임을 배웠다.그렇게 하기 위해 연립 일차방정식을 행렬과 벡터의 곱으로 표현하였고 선형대수의 기하학적 성질을 통해 해집합의 존재유무를 파악하는 방법을 지금까지 탐구하였다.탐구하는 건 좋다.
이 챕터는 혁펜하임의 강의를 정리하였습니다. (출처: https://www.youtube.com/watch?v=47axVfuf-Q0&list=PL_iJu012NOxdZDxoGsYidMf2_bERIQaP0&index=5)전치 행렬은 쉽게 말해서 어떤 행려의 행과
이글은 공돌이의 수학정리노트 (출처: https://angeloyeo.github.io/2020/09/07/basic_vector_operation.html우리는 이제 연립일차 방정식을 행렬과 벡터로 표현할 것이라고 배웠다. 그러면 어떻게 표현할까? 그건 매우
이 시리즈는 Michigan 대학교 "Notes for Computational Linear Algebra"를 공부하며 정리한 Lecture Note입니다.출처: https://github.com/michiganrobotics/rob101/blob/main/F
Goal: connecting multiple computers to get higher performancemultiprocessor: CPU가 여러대Scalability (more processors)availability(continuity) -> 하나 고장나도
key : we do not need to access all the books in the library at once with equal probabilityPrinciple of Localityitems don't have equal probability to b
호출 횟수 증명수학적 귀납법으로 증명시간 복잡도 그 중에 WORST CASE를 고려한 시간 복잡도가 알고리즘 분석에 있어서 중요함시간 복잡도란? 입력 크기에 따라서 단위연산이 몇 번 수행되는지 결정하는 절차답: $T(n)=\\frac{n(n-1)}{2}$답: $W(n)
이 글에서는 강화학습에 대한 전반적인 내용을 다룰 예정입니다.강화학습(reinforcement learning)은 머신러닝의 한 종류로 어떠한 환경에서 어떠한 행동을 했을 때 보상을 줌으로써 그것이 잘 된 행동인지 잘못된 행동인지를 판단하고 반복을 통해 보상을 최대화하
오늘 제가 리뷰할 논문은 2022년 CVPR에 기재 된 Unified Transformer Tracker For Object Tracking 입니다. https://arxiv.org/abs/2203.15175Visual Tracking은 크게 두 가지로 나뉩니
기존 RL에 사용하는 신경망은 단순하게 fully-connected layer를 1~2층으로 연결하는 것으로 구성되었다. 하지만 이런 단순한 구조로 학습한 agent는 복잡하고 연속적인 state , action space 에 대한 exploration 의 한계가 명확
강화학습 연구 실험에 많이 사용되는 시뮬레이션 중에 하나인 Mujoco-py를 설치하는 방법에 대해서 다루려고 한다.원래 Mujoco는 python을 지원하지 않았지만 OpenAI에서 License를 구입하고 강화학습을 연구하는 사람이 편하게 사용할 수 있또록 Pyth