금일 , 작업중 수동으로 pycurl을 설치하다 , 바이러스에 감염되 아주 힘이들었다.Butteraalsofour.xyz 위 팝업이 나타나면서 꺼도 다시나타나 사라지지 않을 것인데이때 사용하기 제일 좋은 방법Google 크롬에서 Butteraalsofour.xyz 알림
온라인 쇼핑 앱에 필요한 상품목록 , 장바구니 , 주문폼을 단계별로 구축 컴포넌트는 화면에서 특정영역을 담당하여 동작을 처리하는 단위<<컴포넌트의 구성>><<애플리케이션을 구성하는 컴포넌트>>app-root다른 컴포넌트를 띄울 수 있도록 제일 먼저
Angular CLI를 사용하기 위해 설치한다.npm install -g @angular/cling --helpng new --help개발 서버에서 새로운 Angular 프로젝트를 생성,빌드 및 제공하려면새 작업공간의 상위 디렉터리로 이동하여 다음 명령어 사용ng ne
TypeScript 를 기반으로 하는 개발 플랫폼 - Angular1.@Component() 데코레이터가 붙는 TypeScript 클래스2.HTML 템플릿3.스타일3.1 - 컴포넌트를 템플릿에 추가할 때 사용하는 CSS 셀렉터3.2 - 추가로 컴포넌트가 표시되는 모습을
금일 , 쇼핑몰 페이지를 구축하는 과정중 useParams()filter()map()에 대한 이해를 적어보고자 한다.1.useParams이는 상세페이지와 같이 많은 페이지가 필요할 경우 , 이를 좀 더 쉽게 할 수 있는 환경을 제공해주는 Hook이다조금 더 자세하게 설
react를 이용하여 프로젝트를 해보면서무작정 사용하는 것이 아닌 깊이있게 어떠한 원리로 인해 동작하는지 또는 이것을 동작시키기 위해선 어떠한 코드가 필요하는지에 대해 알아보고자 정리를 시작하게되었다클래스 컴포넌트에서는 생성자에서 state를 정의하고 setState함
open(text_file): 파일을 연다f.read()를 사용하여 파일의 내용을 읽는다split("\\n")을 사용하여 읽은 내용을 줄 바꿈 기준으로 나눕니다. :-1을 사용하여 마지막 빈 줄을 제외한 모든 줄을 선택text_pairs라는 빈 리스트를 생성합니다. 이
일반화된 셀프 어텐션 : 쿼리 -키 -값 모델멀티 헤드 어텐션< self- attention > import torch를 사용하여 PyTorch를 임포트합니다.import torch.nn.functional as F를 사용하여 PyTorch의 함수형 인터페이스를
데이터 준비정수 시퀀스 데이터셋 준비하기max_length는 텍스트 시퀀스의 최대 길이를 나타내며, max_tokens는 고려할 최대 토큰 개수를 나타냅니다
텍스트를 위한 딥러닝 1. 텍스트 표준화 2. 텍스트 분할 3. 어휘 인덱싱 TextVectorization층 사용하기 -> 주어진 데이터셋을 기반으로 단어 집합을 생성하고 , 텍스트를 인코딩하거나 디코딩하는 기능 제공 standardize(self, text)
img_path = keras.utils.get_file(fname="cat.jpg", origin="https://img-datasets.s3.amazonaws.com/cat.jpg")\-> get_file 함수를 사용하여 주어진 URL에서 이미지 파일을 다
1inputs = keras.Input(shape=(32, 32, 3))\-> shape=(32, 32, 3)는 32x32 크기의 RGB 이미지를 의미합니다. 입력은 keras.Input 함수를 사용하여 정의되며, 모델의 첫 번째 레이어로 사용x = layers.Con
컴퓨터 비전을 위한 고급 딥러닝 1 sorted -> 알파벳 순서 정렬 os.path.join(input_dir,fname) -> 두 개의 경로를 연결하여 새로운 경로를 생성하는 함수 if fname.endswith(".jpg") -> 파일 이름이 'jpg'로
기온 예측 문제fname = os.path.join("jena_climate_2009_2016.csv"):fname 변수에 "jena_climate_2009_2016.csv" 파일의 경로를 저장합니다. os.path.join() 함수를 사용하여 현재 작업 디렉토리와 파
validation data 추가callbacks 사용compilefitvalidation_split 사용위 코드를 사용하게 되면 , 기존 train data의 지정값만큼 validation data로 가게 된다.이를 통해 , accuracy , loss 뿐만 아니라
중요한 정보react 에서 만들어진 작업물은 클라이언트에서만 동작즉 , 서버를 구축하기 위해서는 express 를 설치해야한다.axios 는 http 통신을 위해 필요하다 . (fetch도 가능)mysql 사용하기 위해서는 , server폴더의 app.js 파일에
다양한 워크플로Sequential 모델 , Dense층에 익숙해졌고 훈련,평가, 추론을 위해 내장된 compile(),fit(),evaluate(),predict() api를 사용해보았다.Sequential 모델 가장 시작하기 쉬운 api 이다 . 기본적으로 하나의 파
6장 - 일반적인 머신 러닝 워크플로데이터 준비데이터 전처리 목적 : 주어진 원본 데이터를 신경망에 적용하기 쉽도록 만드는 것벡터화 , 2. 정규화 , 3. 누락된 값 다루기 등 \-> 신경망에서 모든 입력과 타깃은 일반적으로 부동 소수점 데이터로 이루어진 텐서여야 한
해당 코드는 TensorFlow 라이브러리의 Keras API를 사용하여 MNIST 데이터 세트를 다운로드하고 로드하는 코드코드의 첫 번째 줄에서는 mnist 모듈에서 load_data() 함수를 가져와서 MNIST 데이터 세트를 다운로드하고 로드데이터 세트에는 60,