# AI

2096개의 포스트
post-thumbnail

8. 딥러닝 알고리즘

DNN (7장에 이어) Dropout 신경망의 뉴런을 부분적으로 생략하여 모델의 과적합(overfitting)을 해결해주기 위한 방법중 하나 (0~1사이의 확률로) CNN 이미지 처리 시 사용 하나의 픽셀 => 하나

약 7시간 전
·
0개의 댓글
·

프로그래머스 데브코스 - 인공지능 1개월

프로그래머스 1개월차 회고록. 지난 한 달여간 인공지능 코스를 진행하며 학습한 내용들을 간략히 복기해 보려 한다. 데브코스를 열며 간단히 알고리즘들을 학습하고 데이터 처리에 필요할 수 있는 스킬들을 학습했다. Numpy나 EDA과정등은 학부 수업 때 학습 할 수 있는 내용보다 더 세세하다 생각이 들어 꼼꼼히 복습하기 좋은 강의가 아니었나 싶다. Django 부분은 따로 학습을 해본 경험이 없어 부트캠프 내에서의 강의가 백엔드와 Django를 동시에 맛 본 첫 경험이었는데 작년 모 해커톤을 진행하며 프론트엔드를 살짝 맛보기 했던 경험으로써 백엔드가 좀 더 취향에 맞다는 생각을 하며 Monthly Project까지 진행 할 수 있었다. 각 과정들 중 메모 하며 학습한 내용들도 벨로그에 작성 해 보려 한다. > ## EDA? ⇒ 데이터 그 자체만으로부터 인사이트를 얻어내는 접근법 > ## EDA Process 분석의 목적과 변수 확인 데이터 전체적으로 살펴보기 ⇒

약 10시간 전
·
0개의 댓글
·
post-thumbnail

7. 딥러닝 학습

딥러닝 학습 > Cost를 최적화하는 최적의 w를 Gradient Descent 알고리즘을 통해 계산 (머신러닝과 동일) Perceptron 1번에 활성화 함수를 곱함 DNN (Deep Neural Networks) 입력층(input layer), 출력층(output layer) 사이에 여러 개의 은닉층(hid

약 13시간 전
·
0개의 댓글
·
post-thumbnail

6. 머신러닝 알고리즘

머신러닝 알고리즘 Linear Regression 회귀 y = ax + b 꼴의 직선으로 최적화된 w값 구하는 알고리즘 Logistic Regression 분류 이진 분류 모델. 로지스틱 함수(=시그모이드 함수)를 사용하여 로지스틱 회귀 곡선을 만들고, 이진분류 K-Nearest Neighbor 새 데이터 입력 시, 기존 데이터에서 새 데이터와의 거리가 가장 가까운 K개 이웃의 정보로 데이터를 예측하는 모델 해당 모델에서의 하이퍼파

어제
·
0개의 댓글
·

5. 머신러닝 종류, 학습

머신러닝 프로세스 데이터 수집 데이터 전처리 (특성 추출 등) 모델 선택 모델 학습 모델 평가 하이퍼파라미터 튜닝: 모델의 성능을 최적화 함 모델 배포 모델 유지보수 머신러닝 학습 과정 Linear Regression (선형 회귀) > y = ax + b (함수) (= 데이터를 가장 잘 표현할 수 있는 직선 모델) > 즉, y = wx + b (최적화된 모델을 구할 수 있는 w를 구하는 것이 목표) 위 모델을 구하기 위해, Cost function을 사용 Cost function Error(Cost): 예측값 - 실제값 MSE(Cost function): (실제값 - 예측값)^2/N (N은 평균값을 의미) (* MSE의 결과값은 오차(= 숫자)를 의미하고, 해당 값이 작을수록 모델의 예측이 정확함을 의미) 해당 값이 작을수록 더 최적화된 w값을 구할 수 있음 Stochastic Gradient

어제
·
0개의 댓글
·

4. 데이터 시각화

데이터 시각화 많은 양의 데이터의 분포 및 특성을 알아내기 위해 사용 Matplotlib > 기본적인 차트들을 쉽게 그릴 수 있도록 도와주는 시각화 라이브러리 Line Plot: plt.plot(x) Bar: plt.bar(x, height) (범주형 데이터) Pi Histogram: plt.hist(x) (기본 구간 값 10) Box Plot: plt.boxpolt(x) Scatter Plot: plt.scatter(x, y) 관련 함수 plt.figure(): 시각화 영역 지정 plt.plot(): 시각화할 차트의 종류 및 값 지정 plt.show(): 출력 Seaborn > matplotlib 기반으로 만들어진 통계 데이터 시각화 라이브러리 목적에 따라 Matplotlib, Seaborn 각각 다르게 사용 가능함 Seaborn이 Matplotlib보다 시각적으로 강화된 모습 scatterpl

1일 전
·
0개의 댓글
·
post-thumbnail

StayAlertStudy로 학습 시 졸음과 자세 문제를 해결하세요!

학교 AI방과후 시간에 티처블 머신을 활용하여 웹사이트를 만들고 배포를 해보았습니다! 제가 만든 웹사이트를 다른 사람과도 공유하고 싶어 이렇게 글을 쓰게 되었습니다 😊 그럼 사이트를 소개해보도록 하겠습니다! 🔗 배포 주소 > - StayAlertStudy 웹페이지 바로가기 GitHub에서 코드보기 👩🏻‍💻 프로젝트 소개: StayAlertStudy StayAlertStudy는 웹캠 기반 자세 감지 및 졸음 방지 튜터로, 학습 환경을 개선하고 더 나은 학습 경험을 제공하기 위해 개발되었습니다! 이 프로젝트는 학습자가 올바른 자세를 유지하고 학습 도중 졸음을 방지하는 데 도움을 주며, 효율적인 학습을 지원합니다. 💡 문제 해결 현재 학습 과정에서 학습자들은 자세를 잘못 유지하거나 과

2일 전
·
0개의 댓글
·

3. 데이터 전처리

데이터 전처리 데이터 탐색 데이터 확인하기 info(): 스키마 확인 (문자열 - object, 숫자형: int64, float64) head(): 앞 5개 샘플 데이터 확인 (결측치 존재 여부 확인을 위해) tail(): 뒤 5개 샘플 데이터 확인 (결측치 존재 여부 확인을 위해) describe(): 통계 확인 타입 변경 결측치 처리 결측치: 데이터 수집 과정에서 측정되지 않거나 누락된 데이터 N/A, Null, NaN (=> missing data) + 0은 결측치가 아님 데이터 분석 시 반드시 처리해야 함 방법 제거 (정보손실 가능성 존재) listwise: 결측치 존재하는 전체 행 삭제 (행에 하나라도 결측치 있으면 다 삭제) pariwise: 결측치로 존재하는 변수만 삭제 (한 행의 모든 변수가 결측치인 경우 삭제) 채우기 값 대체하기: 평균, 중앙값

2일 전
·
0개의 댓글
·
post-thumbnail

Python 2.

Python 2. 파이썬 기초부터 함수까지! 목 차 * 변수 연산자 반복문 조건문 함수 1. 변수 1) 변수명 = 변수에 저장할 값 2) 변수명의 작성 규칙 > List01 = [1,3,5] # 영문자(대, 소문자 구분), 숫자, 언더바o()만 사용 가능 list_01 = [2,4,6] # 소문자 예시 (다른 변수) List_01 >> [1,3,5] 첫 자리는 숫자를 사용할 수 없습니다 2. 연산자 1) 비교 연산자 |연산자|설명| |:-:|:-:| |a ==b |a와 b가 같다| |a != b|a와 b는 같지 않다| |a < b|a가 b보다 작다| |a <= b|a는 b보다 작거나 같다| a = b : a에다가 b를 대입 한다는 대입 연산자 이다. 2) 논리 연산자 |연산자|설명| |:-:|:-:| |a and b|a,b 조건이 모두

2일 전
·
0개의 댓글
·

[CEO Track] ChatGPT로 사업아이템 브레인스토밍하기

ChatGPT로 유용한 아이디어를 얻기? 아이디어가 떠오르지 않을때 ChatGPT같은 언어모델을 사용하는 것은 아주 유용하다. 언어모델이 학습한 데이터의 범위가 매우 넓기 때문에 때때로 생각지도 못한 해결법을 내놓기도 한다. 물론 ChatGPT같은 언어모델도 그냥 질문하면 대부분 비슷비슷한 답변을 내놓는데 프롬프트를 어떻게 넣느냐에 따라 아주 다양한 답변이 나오기도한다. 더 재밌는것은 직접 사용료를 지불하고 GPT API를 사용하면 Temperatur, Top P, Presence penalty, Frequency penalty같은 세부적인 하이퍼파라미터를 조절할 수 있는데 이를 잘 이용하면 GPT를 굉장히 엉뚱하고 창의적으로 만들어볼수도 있다. 최근에는 gpt3.5-turbo-instruct 라는 새로운 API가 나왔는데, 이 모델은 지시문에 우선적으로 따르도록 만들어져서 일반적인 ChatGPT와 달리 굉장히 주관적인 답변을 얻을수도 있다. 여러 모델을 사용해보면 아이디어를 얻

3일 전
·
0개의 댓글
·

[반도체] 반도체과학법, 가우디2

美, 반도체 기업에 중국 내 증산 5% 제한 확정 > ### 요약 미국 바이든 정부가 반도체법에 따른 보조금을 받는 기업을 중국 내 반도체 생산 능력을 확장할 수 있는 범위를 기존 5%선을 유지하기로 결정했다. 미국 반도체과학법 > - 미국이 반도체산업 분야에서 중국에 대한 기술적우위를 강화하기 위한 반도체 생태계 육성법안 미국에 반도체 시설을 지으면 업체당 최대 30억달러의 보조금을 받는다. 보조금을 받으면 가드레일(안전장치) 조항에 따라 10년간 중국 같은 우려 국가에 반도체 시설을 투자하는 데 제한을 받는다. 출처 | 반도체 칩과 과학법 > 규정안에 따르

3일 전
·
0개의 댓글
·
post-thumbnail

Python 1

Python 1. 파이썬 시작하기 목차 파이썬 용어 자료형(1) int, str, 인덱싱/슬라이싱 자료형(2) list, tuple, set 자료형(3) dictionary, bool 1. 파이썬 용어 1) 표현식 2) 문장 3) 프로그램 4) 식별자 |예약어|설 명| |:---:|:---:| |True,False|자료형에서 배우는 bool 자료형| |None|값이 없거나 알수 없음을 의미, NoneType 자료형| |and, or, not|논리 연산자| |while, for|반복문에서 쓰이는 예약어| |bread|반복문에서 루프를 빠져나올 때 쓰는 예약어| |continue|반복문에서 해당 루프를 건너뛸 때 쓰는 예약어| |del|delete의 줄임말, 인

4일 전
·
0개의 댓글
·
post-thumbnail

[소프트웨어공학] 인공지능의 기초

📌 인공지능이란? 인간의 학습능력, 추론능력, 지각능력을 인공적으로 구현하는 기술 인간의 뇌에 존재하는 시냅스를 따라 AI의 파라미터를 생성하고, 파라미터가 많을수록 AI의 성능이 향상된다. AI는 머신러닝(Machine Learning)과 딥러닝(Deep Learning)을 모두 포함한다. 🦾 머신러닝이란? 컴퓨터가 명시적으로 프로그래밍되지 않아도 학습할 수 있는 능력을 갖추게 하는 알고리즘과 기술의 집합 (수학적 접근을 통한 문제 해결) 머신러닝은 딥러닝을 포함하는 범위를 가진다. 머신러닝의 3가지 학습 > - 비지도 학습 : 정답 없이 문제해결 모델 제작 지도 학습 : 정답을 활용해서 문제해결 모델 제작 강화 학습 : 더 나은 방향으로 문제를 풀어가는 방법 🦾 딥러닝이란? 인공 신경망(Artificial Neural Networks:ANN)을

4일 전
·
0개의 댓글
·
post-thumbnail

Machine_Learning3

데이터 전처리 및 모델(사이킷런 활용) Machien_Learning2에 이어서! df 변수는 데이터를 저장한 dataframe 약자 입니다 사이킷런(sklearn) 라이브러리 활용하기 데이터 전처리 : 범주형 데이터 데이터 전처리 : 수치형 데이터 사이킷런에서 제공하는 데이터셋 활용 머신러닝 (사이킷런에서 제공하는 모델 활용) 1. 사이킷런(sklearn) 라이브러리 활용하기 1) 사이킷런(sklearn) 이란? (학습: fit, 예측: predict) 파이썬을 활용한 머신러닝 도구 데이터 분석(예측)을 위한 간단하고 효율적인 도구 누구나 쉽게 다양한 상황에서 활용 가능 오픈 소스 2) 사이킷런으로 할 수 있는 것 분류 (ex.스팸문자) 회귀 (ex.가격 예측) 클러스터 (ex. 고객 세그먼트, 비지도학습) 차원축소 (ex.

4일 전
·
0개의 댓글
·
post-thumbnail

Vector DB

Vector DB LLM, Generative AI, semantic search 등을 포함하는 기술이 발전하면서 Vector DB의 중요성도 커졌다. AI는 벡터로 Data를 이해한다. 여기서 말하는 vector는 간단하게는 다차원 공간에서 존재하는 한 점 혹은 좌표라고 상상하면 된다. 그래서 Vector DB가 뭐냐? vector를 다루는데에 특화된 Database이다. 대표적으로는 일반적인 RDB나 NoSQL에서 제공하지 않는 vector embeddings의 search나 retrieval을 효과적으로 수행할 수 있는 알고리즘 및 시스템을 제공한다. Vector Index Vector Index랑 Vector DB가 혼용돼서 쓰이곤 하는데, Vector Index는 Vector DB의 핵심 기능이자 포함되는 기능이다. 대표적인 Vector Index는 FAISS(Facebook AI Similarity Search). FAISS는 facebook resea

4일 전
·
0개의 댓글
·
post-thumbnail

Machine_Learning 2

데이터 핸들링 2 전 편의 데이터 핸들링1에 이어서! 데이터 불러오기/만들기 데이터 삭제 결측치 처리 정렬 (sort) 자료형 변환 데이터 탐색 내장함수 그룹핑 apply 함수 1. 데이터 불러오기/만들기 1) 데이터 불러오기 > pd.read_csv('파일명' index=False) 2) 데이터 저장하기 > df.to_csv('파일명', index=False) 2. 데이터 삭제 데이터 프레임 복사(.copy) 선행 : warning 뜨는 것 방지를 위함 (df의 영향을 주지 않기 위해 사본으로 진행) > data = df.copy() data 1) 열(column) 삭제 > data = data.drop('column name', axis=1) #data 변수에 저장하는 것 잊지 않기 다른 방법 > data =

4일 전
·
0개의 댓글
·
post-thumbnail

Getty, 자체 이미지로 훈련된 Art Generator를 공개하며 AI로 채널 변경

2023-09-25(Mon) by Kyle Barr Getty는 AI art generator에 Nvidia Picasso의 클라우드 기반 AI 플랫폼을 사용하고 있지만, Getty가 학습 데이터에 사용할 수 있는 이미지의 종류에 따라 그 결과는 달라질 수 있다. [Gif: Getty Images] 현재 AI 학습에 Getty 이미지를 사용한 것과 관련하여 Stability AI 사와 소송 중 1년 넘게 AI에 대한 고민을 거듭한 끝에, 가장 큰 이미지 저장 사이트 중 하나인 Getty Images는 구독자들이 사이트를 통해 자신만의 AI 이미지를 만들 수 있도록 할 예정이다. 한 가지 약속할 수 있는 점은 AI가 Getty의 자체 이미지에 대해서만 학습하기 때문에 유저가 까다로운 저작권 문제에 대해 걱정할 필요가 없다는 것이다. 지난 월요일, Getty는 자사의 첫 번째 AI 이미지 생성기를 일반 Getty 유저가 무료로 사용할 수 있게 되었다고 발표했다.

4일 전
·
0개의 댓글
·
post-thumbnail

TACOTRON2 : Natural TTS Synthesis By Conditioning WAVENET On Mel Spectrogram Predictions

Text-to-Speech 기술에 WaveNet, Tacotron 등이 접목되면서 전보다 더 고품질의 음성을 합성할 수 있게 되었다. 여러 미디어 채널에서는 TTS를 이용해서 재밌는 합성된 음성을 활용하고 있고 앞으로도 TTS를 사용하는 사람들은 늘어갈 전망으로 보인다. Tacotron2는 Google에서 Tacotron1 기술의 한계점을 뛰어넘기 위해 개발한 것으로 Tacotron1과 비교해서 기술 설명을 이해하면 좋을 것이다. Intro 이론적 배경 WaveNet https://joungheekim.github.io/2020/09/17/paper-review/ https://music-audio-ai.tistory.com/2 위 링크들을 참조했다. Tacotron2에서는 WaveNet을 변형한 Vocoder를 사용한다. (*Vocoder: Text-to-Mel spectrogram model이 만들어낸 spectrogram을 실제 음성의 Waveform으로

5일 전
·
0개의 댓글
·
post-thumbnail

Machine_Learning

1. 머신러닝 시작하기 머신러닝(MachineLearning) 이란? Ai >= 머신 러닝 >= 딥러닝 : AI를 구현하는 방법 중 하나가 머신러닝이고, 머신러닝의 방법 중 하나가 딥러닝!! 2. 머신러닝 모델 과소적합(Underfitting) : 데이터의 평균이 연결 되어 있지 않다. 최적화 되어 있지 않다.(패턴이 너무 단순)

6일 전
·
0개의 댓글
·
post-thumbnail

RAG(Retrieval Augmented Generation)

RAG RAG(Retrieval Augmented Generation)는 미리 학습된 LLM(대규모 언어 모델) 및 자체 데이터를 사용하여 응답을 생성하는 패턴이다. 왜 필요한가 현재 널리 쓰이고 있는 Chatgpt와 같은 LLM은 수많은 범용적인 데이터로 그리고 특정 시점 데이터로(과거 어떤 시점) 학습되었습니다. 그러나 때로는 범용적이지 않고 자신만이 갖고 있는 데이터나 최신 데이터로 작업해야 하는 경우도 있습니다. 해당 경우에 LLM을 활용할 수 있는 두 가지 방식이 있다. 새로운 데이터로 모델을 Fine tuning한다. RAG를 활용한다. Fine tuning은 좋은 해결책이 될 수 있지만 값이 비싸다는 단점이 있어서 RAG가 효율적인 방법이 될 수 있다. 추가적으로 RAG를 잘 사용하면 LLM의 고질적인 문제인 Hallucination도 어느 정도 줄일 수 있다는 장점도 있다. 그래서 어떻게 동작하는건데 Flow는 다음과 같다.

6일 전
·
0개의 댓글
·