# triplet-loss

4개의 포스트
post-thumbnail

[Basic NLP] sentence-transformers 라이브러리를 활용한 SBERT 학습 방법

Intro 이전 포스트에서 소개한 SentenceBERT를 어떻게 학습하는지 논문 및 sentence-transformers 공식 깃헙을 기준으로 몇 가지 방법을 알아보고 어떤 방법이 가장 좋은 성능을 내었느지 소개하고자 한다. 1. SBERT 학습 데이터 SBERT

2022년 2월 28일
·
0개의 댓글
·

Triplet Loss

그동안 분류과제에서 loss function은 주로 softmax를 기반으로 한 cross entorpy를 썼다. 현실에서는 원하는 만큼의 data를 확보하는 게 어려울 수도 있고 같은 category안에 있는 data를 분류해야 할 때도 있다.

2022년 1월 19일
·
0개의 댓글
·
post-thumbnail

How to choose margin in triplet loss?

Triplet loss란 Constrasitive loss의 일종으로써, 샘플된 두 개의 후보군 (positive and negative)에 대해 positive는 가깝게 negative는 멀리 배치되게 하는 방법이다.Anchor ($a$) , Negative ($n$

2021년 12월 29일
·
0개의 댓글
·
post-thumbnail

[Paper Review] Sentence-BERT: Sentence Embedding using Siamese BERT-Networks

Intro 문장 간(혹은 문서 간) 유사도 분석에서 좋은 성능을 내고 있는 Sentence-BERT에 대해 알아보려고 한다. 논문 원제는 Sentence-BERT: Sentence Embedding using Siamese BERT-Networks이며, 최근 성능이

2021년 10월 10일
·
0개의 댓글
·