# Camera

32개의 포스트

Video Recording w/ Camera

Camera Plugin A Flutter plugin for iOS, Android and Web allowing access to the device cameras.   Camera Controller Permission Handler On most operating systems, permissions aren't just granted to apps at install time. Rather, developers have to ask the user for permissions while the app is running. This plugin provides a cross-platform (iOS, Android) API to request permissions and check their status. You can also open the device's app settings so users can g

2023년 9월 13일
·
0개의 댓글
·
post-thumbnail

Smart Pet Door - 04

저번 포스팅에 이어서 진행 동물 칩 인식 부분 변경 먼저 작품 내 변경된 부분이 존재해서 변경된 부분부터 설명하겠다. 기존에는 장거리 RFID 리더 모듈을 이용해서 반려동물을 인식하려고 했지만 모듈의 하드웨어적인 문제 때문에 이 부분을 카메라 모듈로 교체하였다. RFID 동물 칩 인식 대신에 아두이노 나노 33 센스 보드와 카메라 모듈로 TinyML 기술을 이용할 계획이다. 먼저 구글 티쳐블 머신으로 등록할 반려동물의 사진을 학습시킨다. 그리고 학습 모델을 나노 보드에 입력 시킨다. ![](https://velog.velcdn.co

2023년 7월 9일
·
0개의 댓글
·
post-thumbnail

Smart Pet Door - 03

저번 포스팅에 이어서 진행상황을 작성 동물 칩 인식 부분 원래는 지난 포스팅에서 구매했던 장거리RFID 모듈을 사용해서 반려동물의 내장 칩을 읽어오려 했지만, 납땜문제인지 모듈 자체의 문제인지 테스트로 진행한 동물 칩 인식이 되었다가 안되었다가 하는 문제가 발생하였다. 또한 아직 이 모듈과 아두이노를 연결하지 못한 상태여서 이 모듈을 계속해서 사용할지 아직 고민 중에 있다. 이 문제를 해결하기 위해서 어떻게 하면 강아지를 특정지어서 인식 할 수 있을지 고민하다가 카메라 모듈로 반려동물의 얼굴을 인식하는 방법을 생각해 보았다. ![](h

2023년 7월 9일
·
0개의 댓글
·
post-thumbnail

Camera 이미지 좌표계

최근 이미지 데이터를 가지고 뭘 해야되는 상황이 생겨서 관련 내용을 정리하려 한다. 주로 공부한 부분은 좌표계와 변환에 관한 내용이다. 공부한 내용은 구글 검색과 다크 프로그래머님의 블로그를 많이 참조하였다(그저 갓갓..). 카메라와 월드 좌표계 이미지에서 사용하는 좌표계는 라이다에서와 다른 점은 가장 크게는 2가지인것 같다. 2차원이다. 좌측 상단 꼭짓점이 원점이다. ... Code 라이다 포인트 클라우드를 이미지에 투영하는걸 해보고 있는데, 가장 큰 문제는 두개 센서가 어떻게 붙어있는지 위치를 모른다. 즉, 노가다로 끼워 맞추면서 찾는 과정을 진행하고 있다... Reference https://darkpgmr.tistory.com/category/%EC%98%81%E

2023년 6월 27일
·
0개의 댓글
·
post-thumbnail

[논문 리뷰] BEVFusion: Multi-Task Multi-Sensor Fusion with Unified Bird's-Eye View Representation

Abstract 최근 센서 융합 3D 객체 검출은 point-level fusion을 기반 이 논문에서는 geometric, semantic 정보를 보존할 수 있으며, LiDAR, Camera 데이터 형식이 공유 가능한 BEV representation space에 multi-modal features를 통합하여 point-level fusion의 한계를 해결하고자 함 최적화된 BEV pooling을 제안하여 view transformation의 효율을 향상시켰음 nuScenes 3D object detection benchmark에서 mAP과 NDS를 1.3% 향상시켰으며, BEV map segmentation에서 mIoU를 13.6% 향상시켰음 github-code 모델을 실행시켜보려고 하였으나 2080ti 11g로는 lidar+camera 센서 융합은 커녕 lidar-

2023년 6월 22일
·
0개의 댓글
·

flask에 opencv tensorflow 카메라 실행 코드 배포 1

flask를 통한 파이썬 코드 배포 내용이다 #현재 주어진 환경 카메라를 통해 수어를 인식하고 결과같을 출력하는 코드 코드는 완성되어있음 해당 코드를 flask로 서버에 올려야함 pycharm/ anaconda3 / flask 사용 완성된 코드는 github에서 clone해서 가져옴 pycharm에서 conda 설치후 해당 가상환경으로 코드 실행 필요 라이브러리 설치 (tensorflow, sklearn , matplotlib, numpy, opencv, pyttsx ) 참고 url https://www.appsloveworld.com/python/1059/how-to-install-pyttsx-in-anaconda3 https://taksw222.t

2023년 6월 10일
·
0개의 댓글
·
post-thumbnail

Three.js) 3D 이미지 크기에 따른 카메라 위치 조정

3D 이미지 랜더링시 이미지 크기가 클시 이미지의 일부만 랜더링 되어 전체 이미지를 볼 수 없다. 3D 이미지의 좌표 중 minX, maxX, minY, maxY, minZ, maxZ를 이용하여 BoundingBox를 구하여 카메라 위치를 조정한다면 전체 이미지를 볼 수 있다.

2023년 2월 9일
·
0개의 댓글
·
post-thumbnail

카메라 캘리브레이션 및 YOLO를 이용한 거리 검출 (작성중)

본 포스팅은 카메라(웹캠)을 사용해서 캘리브레이션, 라벨링, 거리 추정까지 진행한다. > Window 환경 PC : Desktop OS : Window 10 CPU : I7-8700 GPU : GTX 1660TI CUDA : 11.7 ver. Memory : 32GB Camera : Logitech Streaming Webcam Matlab : R2021a Academic ver. Editor : VS code >Linux 환경 PC : Desktop OS : Ubuntu 18.04 CPU : I9-10990 GPU : GTX 1660 TI CUDA : 11.7 ver. Memory : 32GB Camera : Logitech Streaming Webcam Editor : VS code 0. 오토포커스 끄기 캘리브레이션을 하기 전에 카메라가 가지는 오토포커스 기능을 꺼줘야 한다. 0-1. 윈도우 환경 0-2. 리눅스 환경 [오토포커스 끄는 방법](https

2023년 1월 6일
·
3개의 댓글
·
post-thumbnail

[Unity]유니티 입문 - Cameras

케이디님의 유니티 입문 강좌를 듣고 정리한 내용입니다. Cameras Cameras는 플레이어에게 보여줄 화면을 만들어 내는 컴포넌트이다. Properties Transform : 카메라의 위치, 회전, 크기 등을 자세하게 조정. Clear Flags : 화면의 어떤 부분을 클리어할지 결정(=여백을 정한다). Skybox : 스카이박스를 사용합 니다. 스카이박스는 정육면체로 이루어져 있으며 사용자가 만들 수 있다. Solid Color : Background의 색으로 여백을 정한다. Depth only : 여백을 투명처리 한다. Don't Clear : 여

2022년 12월 19일
·
0개의 댓글
·

카메라 트랙킹 이슈와 해결과정

트랙킹은 카메라가 움직여도 선택한 피사체에 자동초점이 맞추어져 카메라 움직임에도 이미지를 선명하게 유지하게해주는 기능입니다. Actor to tracking 카메라 디테일패널에서 Focus mode를 Tracking으로 변경합니다. Actor to track기능은 스포이드를 사용하여 피사체를 샘플링하면 카메라 위치를 이동해도 피사체를 따라다니며 포커싱합니다. 작은 피사체는 잘 작동합니다. 하지만 캐릭터를 트랙킹하게 되면 발끝을 따라다니는 현상이 발생합니다. 이는 카메라가 피사체의 피봇을 표적으로 삼아 트랙킹하기 때문입니다. 문제를 해결하기 위해서 몇가지 작업이 필요합니다 Charcter actor 잘 tracking 하는법 캐릭터 얼굴을 트랙킹하기로 치고, 그렇다면 머리 부근의 스켈레탈 소켓에다 종속할 액터가 필요합니다. 빈 액터를 만들어주고 'Treyheadbone'이라고 정의하겠습니다. 캐릭터의 블루프린트 클래스 에디터로 접근하여TreyHead

2022년 9월 16일
·
0개의 댓글
·
post-thumbnail

5. 카메라 이동

카메라 추적 방법 (1) : 카메라의 위치를 플레이어의 일정 거리만큼 위치 시킨다. 스크립트 작성 : FollowCam.cs MainCamera에 연결 타겟의 위치를 연결할 변수 targetTr를 선언 Main Camera 자신을 연결할 변수 camTr를 선언 Range()는 첫 번째 인자값에서 두 번쨰 인자값까지의 범위가 된다. 거리, 높이를 선언한다. Main Camera의 컴포넌트를 가져온다. LateUpdate() 카메라의 이동 루틴을 LateUpdate()함수에다 쓰는 이유 LateUpdat

2022년 7월 15일
·
0개의 댓글
·
post-thumbnail

Using USB Camera(Webcam) in Ubuntu

Ubuntu 환경에서 특히, 토픽을 받기 위해 ROS에서 Webcam을 사용할 경우, 구동시키는 인터페이스를 설치하고, 실행할 필요가 있다. 본 포스팅은 Logitech사의 웹캠을 ROS로 구동하여 토픽으로 받는 환경을 구축한다. > pc 환경 : Ubuntu 18.04, ROS1 Melodic Camera : Logitech Stream Cam 카메라는 일반적인 USB 장치와 달리 video device로 바로 잡히기 때문에 다른 명령어를 써서 확인해야 한다. 이와 같이 video가 출력 된다면, 카메라가 정상적으로 연결된 상태이다. 1. 설치 인터페이스 패키지는 Bosch에서 제공하는 표준 USB 카메라 인터페이스 패키지인 usbcam을 이용했다. usbcam 패키지의 usb_cam 노

2022년 6월 7일
·
0개의 댓글
·
post-thumbnail

[OpenCV] 카메라 연결 (작성 중)

서론 나는 장애물 인식과 회피에 OpenCV 를 사용할 예정이다. 그 때 필요한 장비는 카메라인데 친구의 추천으로 OpenCV 에서 만든 OAK-D-Lite Depth Camera 를 사용할 것이다. [OAK-D-Lite 스팩] [OAK-D-Lite 실행 한글 설치 가이드 - 윈도우 파이썬] [DepthAI 환경 구축 - 카메라 실행] [DepthAI Github 예제] 카메라 연결

2022년 6월 6일
·
0개의 댓글
·

iPhone Camera

이 글은 Swift로 카메라 구현 시 기기별 렌즈에 따라 카메라 작동 여부를 파악하기 위한 글이며, 이제 막 카메라 구현을 시작하시는 분들에게 조금이라도 도움이 될 수 있기를 바라는 글입니다. 이미 능숙하게 카메라 구현을 하시는 분들은 큰 의미가 없을 수 있습니다. 내용에 관계없이 기기에 따라 급하게 AVCaptureDevice.DeviceType을 구현하시는 경우 이 글의 가장 아래에 있는 표를 참고하시기 바랍니다. 부족한 부분이 있다면 댓글 부탁드립니다. 카메라 구현 시 렌즈 설정 아이폰은 기기에 따라 작동하는 카메라가 다르기 때문에 앱이 실행되는 기기에 따라 그에 맞는 카메라를 사용할 수 있도록 해야 합니다. 아래 메소드를 통해서 카메라의 종류를 설정하는 것 같습니다. AVCaptureDevice.DeviceType 인자에 기기 타입을 입력할 수 있습니다. 아래 코드를 보면 AVCaptureDevice 옵셔널 타입의 변수를 정의하고 있으며, 이후에는

2022년 6월 1일
·
0개의 댓글
·
post-thumbnail

[Terminology] Embedded System Terminologies

Embedded System의 Terminology 정리 Update Log 2022.03.22 : 1st Logging 2022.03.24 : 2nd Logging 2022.04.01 : 3rd Logging 2022.04.05 : 4th Logging 2022.12.27 : 5th Logging 일반 MIPI Compliance test > 오실로스코프로 Physical Layer Device의 동작을 테스트하는 것. I2C > TWI라고도 하며 데이터 통신을 위한 선(SDA)과 타이밍 동기화를 위한 선(SCL)로 이루어져 있음. > 하나의 마스터와 다수의 슬레이브로 이루어짐. Kernel call stack > > 위와 같은 call stack trace가 있을 때, 아래와 같이 해석할 수 있다. > bdi_register가 가장 먼저 호출되었고 나머지는 역순으로 호출됨. > {symbol}+{offset}/{length} 형태임.

2022년 3월 22일
·
0개의 댓글
·

[Camera-LiDAR Sensor Fusion] Early fusion vs Late fusion

개요 안전 자율주행을 위해 정확한 dynamic object perception software가 필요로 하며 high precision(no false detection), high recall(never missing an obstacle on the road)을 요구한다. 이를 달성하기 위하여 camera, lidar, radar 등의 센서와 컴퓨팅을 하기위한 GPU가 요구된다. 각 센서는 장단점이 있으며 이를 상호 보완하여 보다 정확한 인지를 위하여 fusion을 진행하게 된다. Camera-Lidar sensor fusion의 경우, Lidar : 정확한 depth 추정이 가능하지만 color 정보가 없음 Camera : color 정보를 얻을수 있지만, depth정보를 추정하기가 힘듦 그래서 두 센서의 장단점을 상호보완하기 위해 fusion을 진행하게 된다. sensor fusion의 패러다임 deep learning의 발전과 함께 두개의 fusi

2022년 2월 23일
·
0개의 댓글
·
post-thumbnail

[Vision ISP] Color Filter Array

Color Filter Array 디지털 카메라의 센서에는 R, G, B색을 감지할 수 있는 셀(화소) 이 포함된 이미지 센서가 있다. 각 셀은 실제로는 color를 감지 하는 것이 아닌 흑백의 밝기만 감지하는 monochrome 화소이다. Color Filter는 monochrome화소 위에 결합되어 특정한 color를 투과시켜 color를 만들어낸다. 이 color filter 의 정렬을 Color Filter Array라고 한다. 아래는 Color filter array의 종류이다 (출처: https://en.wik

2022년 2월 23일
·
0개의 댓글
·

[Unity] Camera(카메라)

clear Flags : 빈화면을 어떻게 할건지 결정 Depth_only : 카메라 여러개 할 때 cullingMast : 특정 layer만 보이게함 projection : 원근감 Filed of View : 시야 뷰 physical Camera : 실제 카메라설정처럼 clipping Planes : 보이는 범위 정도 Depth : 카메라 보여주는 우선수위 culling Mask와 섞어서 사용 대상을 따라다니게 하는 카메라 만들기

2022년 2월 11일
·
0개의 댓글
·
post-thumbnail

[Camera-LiDAR Calibration] Calibration Pattern

Calibration Calibration결과로 Intrinsic(내부) parameter, Extrinsic(외부) parameter 값을 알 수 있다. 이 값들을 통해 영상에서의 구조를 예측 할 수 있으며 lens 외곡을 보정할 수 있다. CV 설정의 성공을 위해 중요하며 calibration을 위한 pattern은 다양하다 이번 포스팅은 다양한 calibration pattern의 종류와 이점을 작성하겠다. Pattern Size calibration plate를 선택할 때 중요한 사항중 하나는 물리적 size이다. 이것은 카메라가 특정 거리에 초점을 맞춰 보정을 해야하기 때문이다. 이는 결국 최종 적용하는 FOV와 관련이 있다. 그렇기 때문에 초점 거리를 고정 하지 않아 이전의 보정이 무효화 되는것을 방지해야 한다.(초점 거리 고정!) 카메라 영상에서 전면 평행으로 볼 경우 전체 면적의 약 절반을 커버하는 것이 바람직하다고 한다.

2022년 2월 4일
·
0개의 댓글
·

[ROS] monocular Camera calibration

참고 사이트 http://wiki.ros.org/camera_calibration/Tutorials/MonocularCalibration 진행 과정 checker board.pdf 다운로드 install dependencies and compile >$ rosdep install camera_calibration >$ rosmake camera_calibration usb_cam 실행 >$ roslaunch usbcam usbcam-test.launch >실행 방법은 아래 링크 참고 cell width : 0.017m , 8x6 >$ rosrun cameracalibration cameracalibrator.py --size 8x6 --square 0.017 image:=/usbcam/imageraw camera:=/usbcam –no-service-check * Calibrating * D =

2022년 1월 19일
·
0개의 댓글
·