# survey

25개의 포스트
post-thumbnail

CCSTokener

This is the journal that related to code clone detecting. This summer vacation I tried to make jCCTokener by using this journal. It use the AST structure. AST is Abstract Syntax Tree that shows the overall structure. The people who wrote this journal made AST parser it python language. However, I didn't have the right time so I used the Eclipse JDT Library. ![](https://velog.velcdn.com/images/ehdrb

2023년 8월 17일
·
1개의 댓글
·

[서베이 리뷰] Visual Anomaly Detection for Images: A Survey

지도 비지도 시각적 탐지 세부 수준 이미지 수준: 전체 이미지가 정상인지 비정상인지에 대한 질문에 초점 픽셀 수준: 이미지 내의 비정상적인 영역을 감지하거나 위치를 파악 점차 딥 컨볼루션 네트워크의 강력한 표현 능력을 시각적 이상 탐지 문제와 결합하는 문제에 주목하고, 최종적으로 종단 감지 접근 방식을 개발 III. IMAGE-LEVEL VISUAL ANOMALY DETECTION 비지도 이미지 수준 이상 탐지 방법 A. 밀도 추정 먼저 정상 이미지나 특징의 확률 분포 모델을 추정한 후, 새로 관찰된 이미지가 이상인지 정상인지를 확인하고 식별하기 위해 설정된 분포에 대해 테스트 테스트 이미지나 이미지 특징이 정상 이미지 샘플로 추정된 확률 분포 모델과 일치하지 않는 경우, 이를 이상으로 분류 가우시안 모델 및 가우시안 혼합 모델 [10], [11], 최근접 이웃 및 커널 밀도 추정 방법과 같은 비모수 추정 방

2023년 8월 12일
·
0개의 댓글
·
post-thumbnail

Self-Supervised Multimodal Learning: A Survey

오늘 리뷰할 논문은 self-supervised multimodal learning (SSML)에 관한 survey 논문이다. 포스트는 리뷰보다는 메모 형식이다. In this survey, we review SSML algorithms and their applications. We decompose the various methods along three orthogonal axes: objective functions, data alignment, and model architectures. Based on the pretext tasks, we classify the training objectives into instance discrimination, clustering, and masked prediction categories. ![](https://velog.velcdn.com/images/pabiya/post/867deaf9-71af-4d57-906

2023년 5월 12일
·
0개의 댓글
·
post-thumbnail

Multimodal Machine Learning: A Survey and Taxonomy

오늘 리뷰할 논문은 multimodal 2017년 survey다. multimodal machine learning 기법을 여러 갈래로 분류한 리뷰 논문이다. 포스트는 리뷰보다는 메모하는 식이다. [논문 정리] Translation in Multi-modal Learning 논문 정리 In this paper we identify and explore five core technical challenges (and related sub-challenges) surrounding multimodal machine learning. ![](https://velog.velcdn.com/images/pabiya/post/abbbaa98-

2023년 5월 11일
·
0개의 댓글
·
post-thumbnail

Multimodal Learning with Transformers: A Survey

오늘 리뷰할 논문은 transformer 관련 Multimodal Learning (MML) survey다. 포스트는 리뷰보다는 메모 형식이다. 논문의 구성은 다음과 같다. (1) a background of multimodal learning, Transformer ecosystem, and the multimodal big data era, (2) a theoretical review of Vanilla Transformer, Vision Transformer, and multimodal Transformers, from a geometrically topological perspective, (3) a review of multimodal Transformer applications, via two important paradigms, i.e., for multimodal pretraining and for specific multimodal tasks, (4)

2023년 5월 10일
·
0개의 댓글
·
post-thumbnail

A survey of multimodal deep generative models

오늘 리뷰할 논문은 (대부분) VAE를 기반으로 한 multimodal generative models의 survey 논문이다. 그런데 VAE 논문을 아직 안 읽어서 이거도 일단 대충 읽었다. 포스트는 리뷰보다는 메모용이다. Heterogeneity : modalities가 서로 다른 feature space와 distribution을 가진다는 것 surveys on multimodal (or multi-view) machine learning [3, 5, 17, 45, 87, 108, 117, 122] [5]를 따라 multimodal generative models을 coordinated와 joint models로 구분한다. coordinated models focus on the definition of closeness between inference distributions in the objective and divide them into tw

2023년 5월 9일
·
0개의 댓글
·
post-thumbnail

A survey on Self Supervised learning approaches for improving Multimodal representation learning

오늘 리뷰할 논문은 multimodal survey 논문이다. multimodal approach에서 유명한 4가지 방식을 소개하는 듯하다. Self supervised unimodal label prediction and Multi-task for better representation 부분은 뭔 소린지 이해를 못했다. 아래 포스트를 먼저 보면 도움이 될 것이다. Self-supervised learning (자기지도학습): 개념과 방법론 톺아보기 트랜스포머(Transformer) 간단히 이해하기 (1) self-supervised learning의 일반적인

2023년 5월 8일
·
0개의 댓글
·
post-thumbnail

A Survey of Vision-Language Pre-Trained Models

오늘 리뷰할 논문은 Vision-Language PreTrained Models (VL-PTMs)에 대한 survey 논문이다. survey 논문이라 리뷰라기보다는 개인적으로 흥미로운 내용을 간단히 메모하는 수준으로 포스트를 적을 것 같다. Summary 논문은 먼저 pre-training 이전에 raw images와 texts를 single-modal embeddings로 encode하는 여러 방법을 소개한다. 그리고 나서 text와 image representation 사이 interaction을 modeling하는 VL-PTMs architecture들을 살펴본다. 그 다음 widely-used pre-training tasks와 common downstream tasks도 소개한다. pre-training은 처음에는 CV에서 유용하다고 밝혀졌는데 transformer와 BERT의 등장 후로 NLP에서도 만연하게 사용되었다. transformer는 lo

2023년 4월 28일
·
0개의 댓글
·
post-thumbnail

A Survey of the Usages of Deep Learning For Natural Language Processing

Daniel W. Otter, Julian R. Medina, and Jugal K. Kalita IEEE Transactions on Neural Networks and Learning Systems 2018 Abstract > 1. 최근 딥러닝 모델의 등장으로 자연어 처리 분야가 크게 발전함 자연어 처리에 대한 소개와 딥러닝 구조에 대한 개요를 설명함 현재 기술 수준에 대한 논의와 향후 연구의 권장 사항을 제공함 Introduction > 1. NLP는 컴퓨터가 인간의 언어를 계산하고 처리하고 이해하도록 하는 것을 다루는 분야 1980년대 이후, 통계, 확률, 기계 학습 등의 데이터 기반 계산이 가능해지면서, 대용량 데이터 셋 및 GPU를 이용한 딥러닝이 가능해짐 자연어 처리와 딥 뉴럴

2023년 4월 17일
·
0개의 댓글
·
post-thumbnail

Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing

Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing 전통적 지도학습은 input x → output $y$ , $P(y|x)$ 학습이 진행된다. prompt based 학습은 텍스트의 직접확률 언어모델을 베이스로 한다. prompt task를 위해서는 input x 를 $template$ 를 사용해 안채워진 $prompt$ $x^{\prime}$ 으로 바꿔주어야 한다. 그리고 언어모델은 최종 $\hat x$ 을 얻기위해 확률적으로 안채워진 정보를 채우는데 사용된다. 이 $\hat x$는 최종 결과 y를 가져온다. 초록 이러한 새로운 프롬프팅 function을 정의하면서 모델은 few or no label data에 대해 few-shot or zero-shot learning을 할 수 있다. → 이 글은 prompt 유망한 기술을 소

2023년 4월 5일
·
0개의 댓글
·

[논문] About Face: A Survey of Facial Recognition Evaluation 요약

Abstract 1976년 부터 2019년 까지 145 million의 이미지를 조사한 결과, 이러한 dataset들은 정치적 동기, 기술적 능력과 현재 규범들의 변화에 의해 형성된다. 이러한 영향들이 해로울 수 있는 특정 관행을 어떻게 가리는 지 논의하고, 현실세계에서 기술의 기능에 대한 이해를 확립할 세부적인 명시적 의사소통을 위한 사례를 만든다. Introduction NIST에서는 2014년과 2018년 사이에 FPT(Facial processing technology)가 0.2% 실패율을 보인다고 한다. 그러나 현실 세계에서 런던의 용의자 식별 시스템에서 96% 실패 등의 반례가 발생한다. 특히, 인구통계학적 하위 그룹에서 더 높은 실패율을 보인다. ex ) Amazon Rekognition system : 소수민족의 운동선수를 범죄자로 잘못 인식 또한, 개인 정보 등의 문제로 대부분의 FPT 사용이 정부에 의해 금지된다. -

2023년 3월 7일
·
0개의 댓글
·
post-thumbnail

SEIR 정리

SIR model SEIR model SEIR without vaccination $N$: total population $S$: suspected(susceptible) $E$: exposed $I$: infected $R$: recovered $N = S + E + I + R$ $S, E, I, R$는 때때로 integer가 아니라 proportion으로 사용되기도 함 (e.g. $S \rightarrow \frac{S}{N}$) SEIR with vaccination Annas, S., Pratama

2023년 1월 12일
·
0개의 댓글
·

[PaperReview] A Survey of Quantization Methods for Efficient Neural Network Inference

NN의 발달 과정 폭 넓은 문제의 분야에서 Neural Network 의 정확도는 필요 이상의 수 많은 파라미터들로 크게 개선되었다. 문제를 해결하는데 중점을 두어 모델의 복잡도와 계산 복잡도까지 고려를 해서 발달되지는 않은 것으로 해석 할 수 있을 것 같다. Quntization 등장 NN이 개선되며 발달한 과정이 (highly over -parameterized models) 리소스 제약이 있는 애플리케이션에 배포할 수 없다. 또한 실시간 추론이 필요로 하는 것을 인지하게 만들었다. 실시간 추론은 리소스 제한적인 환경에서 적은 에너지 소비와 높은 정확도를 유지를 해야 한다. Neural network 효율적으로 만든다는 것은 latency, memory footprint, energy consumtion 측면을 고려하여 만든다는 것이고, 정확도와 일반화는 trade-off 관계에 있기 때문에 몇 가지 카테고리로 크게 묶을 수 있다. Designing

2022년 11월 25일
·
0개의 댓글
·
post-thumbnail

Respondent Behavior 1.0.0v

최근 고객사에 중간보고서를 제출한 뒤 질답 시간을 가졌을 때 질문 하나를 받았다. > 보통 이메일 리스트로 발송하면 응답률이 어느정도 되나요? 길지도 않은 정도가 아니라 거의 전무하다고 해도 무방할만큼 짧은 회사생활을 했기에 알 턱이 없었다. 그러나 한 편으로는 “어쩌면 알 수도 있었다”라는 생각이 들었다. 이 회사는 수십년 간 조사업을 수행하면서 수도 없이 많은 설문조사 메일을 보내고 전화조사를 했다. 이에 대한 기록이 분명 존재한다. 그러나 회사는 안타깝게도 말단 직원인 나에게는 다소 불친절했다. 그런 데이터를 충분히 공유해주지 않았을 뿐더러 쉽사리 조회할 수 있는 환경도 조성해놓지 않았기 때문이다. 따라서 나는 고객사가 느끼는 불확실성에 대해 명쾌하게 답해줄 수 없었다. 고객사의 그런 질문을 받는 순간이 만약 중간보고서 제출 기간이 아니라 프로젝트를 수주 받고 협상하는 과정이었다면? 표본을 설계하는 때였다면? 그런 불확실성에 대해 묻는 고객사의 질문은 더욱 무겁게

2022년 11월 8일
·
0개의 댓글
·

SurveyProject_Front) 클론코딩 정리하기

리액트의 실무기회를 접할 수 없는 나는 인강이나 서적을 따라하는 위주로 공부를 했다.(직접 무언가를 만들어보면 좋으련만 혼공에 막힘이 꽤있다..하지만 이런식의 래퍼런스를 쌓고 꼭 도전해봐야 하는것 중 하나!!!) 이것 저것 따라하며 막히기도 하면서 기본적인것에 대한 이해도를 쌓고있는데 실무처럼 진행해볼 수 있는 인강을 발견해 바로 결제를 해보았다. 스터디파이강의에서 발견. 이 강의는 실무처럼 진행해볼수 있도록 모의 개발같은 느낌이 강하니 기본적인 react의 이해도를 쌓고 보는것이 수월할 것 같았다. 다행히 그전에 이것저것 봐두고 따라해본게 있으니 기초단계는 따라가볼만 했다. (물론 페이지 나뉘고 데이터가 붙으면서 멘탈이 나갔지만) 일단 그래서 어려웠고, 아직 모르는 부분도 있지만 단순히 따라하고 끝이 아니게끔, 프로젝트의 맥락이 이렇게 흘러갔다는것을 이해해볼겸 후기작성을 해본다. 이 강의를 선택한

2022년 7월 29일
·
0개의 댓글
·
post-thumbnail

Semi-supervised learning 입문

이미지 분류 task에서 딥러닝은 눈부신 발전을 이룩하였습니다. 그리고 그 이면에는 잘 정립되고 라벨링된 막대한 양의 데이터가 있습니다. 헌데 라벨링 작업은 많은 resource를 요구하기 때문에 실제 산업현장에서 정확히 라벨링된 데이터를 얻기란 쉽지 않습니다. 이에 연구자들은 소수의 labeled 데이터를 이용하여 좋은 분류 성능을 내기 위해 많은 노력을 기울여왔습니다. 그 노력의 일환으로, 최근 unlabeled 데이터를 학습에 함께 사용하면 일반화 성능의 증가와 더불어 학습 성능을 더 높일수 있다는 연구 결과가 나오고 있습니다. 그리고 이러한 방법론을 통틀어 semi-supervised learning이라 명명하였습니다. 산업 데이터를 분석하는 제 입장에서도, 고객사로부터 깔끔히 정제된 데이터를 얻

2022년 4월 12일
·
1개의 댓글
·

(작성중)[survey 논문 정리] Image-based 3D object Reconstruction: State-of-the-Art and Trends in the Deep Learning Era

Image-based 3D object Reconstruction: State-of-the-Art and Trends in the Deep Learning Era 2. Problem statement and Taxonomy > - 본 paper에서 사용되는 용어, 수식 정리 > > - $I = \{ I_k,k=1,..., n \}, \ n ≥ 1$ : 하나 또는 그 이상의 객체 X 의 RGB 이미지 $f_θ$ : shape $X'$을 추론하는 predictor : reconstruction objective $L(I)=d(f_θ(I), X)$를 최소화 하는 함수 > - $θ$ : a set of parameter of $f$ $d(•,•)$ : target shape $X$와 reconstructed

2022년 3월 31일
·
0개의 댓글
·
post-thumbnail

(작성중)[survey 논문 정리] 3D reconstruction using deep learning : a survey

3D reconstruction using deep learning : a survey 3D reconstruction 분야에 관심이 생겨 이 분야에 대해 알아보기 위해 2020년 Communications in Information and Systems 에 개제된 survey 논문을 읽고 정리하려 한다. 본 서베이 논문은 deep learning 기반의 3D reconstruction 분야의 classical, latest works를 모두 다루며, all surveyed method들을 input modality에 따라 아래 3가지 카테고리로 나눠 설명한다. single RGB image based 2.

2022년 3월 28일
·
0개의 댓글
·
post-thumbnail

[SW 테스팅 스터디] Fuzzing의 기본 개념

1. 서론 많은 소프트웨어 취약성 검출 기술 중에 Fuzzing은 개념의 단순성, 낮은 도입 장벽, 실제 소프트웨어에서 높은 효율을 보여 많은 인기를 끌고 있습니다. High level에서의 Fuzzing은 구문적으로나 의미적으로 문제를 일으킬 수 있는 입력값을 프로그램에 반복적으로 실행하는 과정입니다. 공격자는 공격 생성 및 침투 테스트와 같은 시나리오에 퍼징 기법을 사용했으며, 이러한 악성행동을 막기 위한 방어자들 또한, 공격자보다 먼저 취약성을 발견하기 위해 퍼징 기법을 도입하기 시작했습니다. Adobe, Google, Microsoft와 같은 기업들은 모두 보안 개발 관행의 일부로 퍼징 기법을 사용하고 있으며, 최근에는 오픈소스 개발자 또한 소프트웨어의 신뢰성을 보장하기 위해 퍼징 기법을 사용하고 있습니다. 이에 따라 주요 보안 컨퍼런스에서도 퍼징 기법에 관한 연구도 활발하게 이루어지고 있습니다. 2. Fuzzing의 기원 Fuzzing이라는

2022년 3월 21일
·
0개의 댓글
·