내일배움캠프 33일차

김서영·2022년 10월 19일
0

내일배움캠프 TIL

목록 보기
35/85
post-custom-banner

1. 오늘 내가 한 일!

  • AI장고 프로젝트를 liveshare를 통해 팀원들과 함께 작성
  • 얼굴인식 머신러닝 코드 실행에 성공했다. 하지만 코드를 자세히 알지는 못해 오늘내일 자세히 뜯어봐야겠다ㅠㅠ

2. 내가 이용한 머신러닝 데이터셋&모델&코드

3. 문무해알

- 문제점

- 무엇을 몰랐는지(내가 한 시도)

오늘 내가 이용한 얼굴인식 머신러닝 코드이다.
아직 제대로 코드를 뜯어보지 못해 이해를 잘 하지는 못한 상태이다.ㅠㅠ

import cv2
import math
import argparse

def highlightFace(net, frame, conf_threshold=0.7):
    frameOpencvDnn=frame.copy()
    frameHeight=frameOpencvDnn.shape[0]
    frameWidth=frameOpencvDnn.shape[1]
    blob=cv2.dnn.blobFromImage(frameOpencvDnn, 1.0, (300, 300), [104, 117, 123], True, False)

    net.setInput(blob)
    detections=net.forward()
    faceBoxes=[]
    for i in range(detections.shape[2]):
        confidence=detections[0,0,i,2]
        if confidence>conf_threshold:
            x1=int(detections[0,0,i,3]*frameWidth)
            y1=int(detections[0,0,i,4]*frameHeight)
            x2=int(detections[0,0,i,5]*frameWidth)
            y2=int(detections[0,0,i,6]*frameHeight)
            faceBoxes.append([x1,y1,x2,y2])
            cv2.rectangle(frameOpencvDnn, (x1,y1), (x2,y2), (0,255,0), int(round(frameHeight/150)), 8)
    return frameOpencvDnn,faceBoxes


parser=argparse.ArgumentParser()
parser.add_argument('--image')

args=parser.parse_args()

faceProto="opencv_face_detector.pbtxt"  # 얼굴을 감지하기 위한 파일(텍스트 형식)
faceModel="opencv_face_detector_uint8.pb"  # 얼굴을 감지하기 위한 파일(이진 형식)
ageProto="age_deploy.prototxt"  # 연령에 대한 네트워크 구성 설정
ageModel="age_net.caffemodel"  # 연령에 대한 레이어 매개 변수의 내부 상태를 정의
genderProto="gender_deploy.prototxt"  # 성별에 대한 네트워크 구성
genderModel="gender_net.caffemodel"  # 성별에 대한 레이어 매개 변수의 내부 상태를 정의

MODEL_MEAN_VALUES=(78.4263377603, 87.7689143744, 114.895847746)
ageList=['(0-2)', '(4-6)', '(8-12)', '(15-20)', '(25-32)', '(38-43)', '(48-53)', '(60-100)']
genderList=['Male','Female']

faceNet=cv2.dnn.readNet(faceModel,faceProto)
ageNet=cv2.dnn.readNet(ageModel,ageProto)
genderNet=cv2.dnn.readNet(genderModel,genderProto)

video=cv2.VideoCapture(args.image if args.image else 0)
padding=20
while cv2.waitKey(1)<0:
    hasFrame,frame=video.read()
    if not hasFrame:
        cv2.waitKey()
        break

    resultImg,faceBoxes=highlightFace(faceNet,frame)
    if not faceBoxes:
        print("No face detected")

    for faceBox in faceBoxes:
        face=frame[max(0,faceBox[1]-padding):
                   min(faceBox[3]+padding,frame.shape[0]-1),max(0,faceBox[0]-padding)
                   :min(faceBox[2]+padding, frame.shape[1]-1)]

        blob=cv2.dnn.blobFromImage(face, 1.0, (227,227), MODEL_MEAN_VALUES, swapRB=False)
        genderNet.setInput(blob)
        genderPreds=genderNet.forward()
        gender=genderList[genderPreds[0].argmax()]
        print(f'Gender: {gender}')

        ageNet.setInput(blob)
        agePreds=ageNet.forward()
        age=ageList[agePreds[0].argmax()]
        print(f'Age: {age[1:-1]} years')

        cv2.putText(resultImg, f'{gender}, {age}', (faceBox[0], faceBox[1]-10), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0,255,255), 2, cv2.LINE_AA)
        cv2.imshow("Detecting age and gender", resultImg)

- 해결 방법

- 알게 된 것

import cv2
import math
import argparse

def highlightFace(net, frame, conf_threshold=0.7):
    frameOpencvDnn=frame.copy()
    frameHeight=frameOpencvDnn.shape[0]
    frameWidth=frameOpencvDnn.shape[1]
    blob=cv2.dnn.blobFromImage(frameOpencvDnn, 1.0, (300, 300), [104, 117, 123], True, False)

    net.setInput(blob)
    detections=net.forward()
    faceBoxes=[]
    for i in range(detections.shape[2]):
        confidence=detections[0,0,i,2]
        if confidence>conf_threshold:
            x1=int(detections[0,0,i,3]*frameWidth)
            y1=int(detections[0,0,i,4]*frameHeight)
            x2=int(detections[0,0,i,5]*frameWidth)
            y2=int(detections[0,0,i,6]*frameHeight)
            faceBoxes.append([x1,y1,x2,y2])
            cv2.rectangle(frameOpencvDnn, (x1,y1), (x2,y2), (0,255,0), int(round(frameHeight/150)), 8)
    return frameOpencvDnn,faceBoxes


# parser=argparse.ArgumentParser()
# parser.add_argument('--image')

# args=parser.parse_args()

faceProto="tweet/opencv_face_detector.pbtxt"  # 얼굴을 감지하기 위한 파일(텍스트 형식)
faceModel="tweet/opencv_face_detector_uint8.pb"  # 얼굴을 감지하기 위한 파일(이진 형식)
ageProto="tweet/age_deploy.prototxt"  # 연령에 대한 네트워크 구성 설정
ageModel="tweet/age_net.caffemodel"  # 연령에 대한 레이어 매개 변수의 내부 상태를 정의
genderProto="tweet/gender_deploy.prototxt"  # 성별에 대한 네트워크 구성
genderModel="tweet/gender_net.caffemodel"  # 성별에 대한 레이어 매개 변수의 내부 상태를 정의

MODEL_MEAN_VALUES=(78.4263377603, 87.7689143744, 114.895847746)
ageList=['(0-2)', '(4-6)', '(8-12)', '(15-20)', '(25-32)', '(38-43)', '(48-53)', '(60-100)']
genderList=['Male','Female']

faceNet=cv2.dnn.readNet(faceModel,faceProto)
ageNet=cv2.dnn.readNet(ageModel,ageProto)
genderNet=cv2.dnn.readNet(genderModel,genderProto)

def photo(img):
    print(img.url)
    video=cv2.VideoCapture(f'.{img.url}')  #이미지 읽어오는 코드(args.image에는 파일의 경로를 넣어야), 이미지 경로 이름 지정(.은 현재 파일에서 실행하겠다, .을 안붙여주면 경로가 /로 시작하는데 컴퓨터가 경로인식을 잘 못함)
    print(f'.{img.url}')
    padding=20
    # result_age = []
    # result_gender = []
    while cv2.waitKey(1)<0:
        hasFrame,frame=video.read()
        if not hasFrame:
            cv2.waitKey()
            break

        resultImg,faceBoxes=highlightFace(faceNet,frame)
        if not faceBoxes:
            print("No face detected")

        for faceBox in faceBoxes:
            face=frame[max(0,faceBox[1]-padding):
                    min(faceBox[3]+padding,frame.shape[0]-1),max(0,faceBox[0]-padding)
                    :min(faceBox[2]+padding, frame.shape[1]-1)]

            blob=cv2.dnn.blobFromImage(face, 1.0, (227,227), MODEL_MEAN_VALUES, swapRB=False)
            genderNet.setInput(blob)
            genderPreds=genderNet.forward()
            gender=genderList[genderPreds[0].argmax()]
            print(f'Gender: {gender}')

            ageNet.setInput(blob)
            agePreds=ageNet.forward()
            age=ageList[agePreds[0].argmax()]
            print(f'Age: {age[1:-1]} years')

            cv2.putText(resultImg, f'{gender}, {age}', (faceBox[0], faceBox[1]-10), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0,255,255), 2, cv2.LINE_AA)
            # cv2.imshow("Detecting age and gender", resultImg)
            # result_gender.append(gender)
            # result_age.append(age)
            return gender, age

def highlightface는 얼굴에 네모 표시를 해주는 코드
def photo는 얼굴인식을 해서 나이와 성별을 알려주는 코드
이 코드를 장고와 연결시켜주려면 photo함수를 views.py에 import해주면 된다.

from django.shortcuts import render, redirect
from . import gad
from django.contrib.auth import authenticate
from .models import TweetModel

# Create your views here.

def home(request):
    if request.method == 'GET':
        user = request.user.is_authenticated
        if user:
            total_img = TweetModel.objects.values()
            
            return render(request, 'tweet/home_now.html', {'total_img':total_img})
        else:
            return redirect('/login')
            
    elif request.method == 'POST':
        user = request.user.is_authenticated
        tweet = TweetModel()

        upload_img = request.FILES['upload_img']

        tweet.upload_img = upload_img
        print(upload_img)
        tweet.save()

        tweet = TweetModel.objects.get(upload_img=f'images/{upload_img}')

        result_gender, result_age = gad.photo(tweet.upload_img)
        
        tweet.age = result_age
        tweet.gender = result_gender
        tweet.save()

        
        
        return redirect('/')
profile
개발과 지식의 성장을 즐기는 개발자
post-custom-banner

0개의 댓글