컴퓨터 비전 분야 종류

→ Image Classification 에 대한 내용 정리


전이학습
이미 학습된 모델의 지식을 새로운 문제에 적용하여 성능을 향상시키는 기법
- 기본 개념
- 대규모 데이터로 사전 학습된 모델(예: ImageNet 같은 데이터셋으로 학습된 모델)의 가중치를 그대로 가져와서 새로운 문제에 적용
- 사전 학습된 모델의 지식을 새로운 문제에 전이시켜 초기 학습 시간을 단축하고, 더 좋은 성능을 이끌어내는 것이 목표
- 장점
- 처음부터 모든 데이터를 학습하는 것보다 훨씬 적은 시간과 자원으로 높은 성능 달성 가능
- 사전 학습된 모델의 **특징 추출(feature extraction)**을 활용하므로, 새로운 데이터에서도 일반화된 표현 학습 가능
- 주요 기법
- Feature Extraction: 사전 학습된 모델의 마지막 출력층 전까지의 가중치를 고정하고, 새로운 데이터의 특징 추출에 활용
- Fine-tuning: 고정된 가중치 위에 새로운 데이터의 라벨을 추가해 전체 모델을 재학습하여 미세 조정


특징 추출(Feature Extraction) vs 파인튜닝 (Fine tuning)
- Feature Extraction
- 사전 학습된 모델의 convolutional layers는 freeze하고, 마지막 classifier만 새로운 데이터셋에 맞게 재학습
- 주로 입력 이미지의 feature 추출에 집중
- 학습 시 새로운 데이터의 label에 대한 정보는 사용하지만, 전체 모델을 다시 학습하지는 않음
- 주로 적은 양의 데이터로 빠르게 특징 추출이 필요할 때 유용
- Fine-tuning
- 사전 학습된 모델의 모든 layers(convolutional + classifier)를 trainable하게 설정하고, 새로운 데이터셋에 맞춰 전체 모델을 재학습
- 입력 이미지의 feature 추출뿐만 아니라, 분류기의 파라미터까지 미세 조정
- 새로운 데이터셋에 대한 학습 과정이 포함되어 있어, 보다 정교한 모델 성능 개선 가능


데이터증강 (Augumentation)
데이터 증강이란?
- 원본 데이터를 다양한 방법으로 변형하여 새로운 데이터를 생성하는 기법
- 적은 양의 원본 데이터로도 모델의 학습 성능을 높이기 위해 활용
- 목적
- 다양한 변형 데이터를 추가함으로써 모델의 일반화 능력 향상
- 과적합을 방지하고, 새로운 데이터에 대한 모델의 견고성 강화
- 주요 기법
- 이미지 회전(rotation): 입력 이미지를 랜덤하게 회전
- 반전(flip): 이미지를 수평 또는 수직으로 반전
- 자르기(crop): 이미지의 일부를 랜덤하게 잘라냄
- 색조/채도 조절: 이미지의 색상 값을 변화
- 노이즈 추가: 이미지에 랜덤한 노이즈를 추가


ILSVRC ImageNet 경진대회 및 모델소개
| ILSVRC은 ImageNet Large Scale Visual Recognition Challenge의 약자로 이미지 인식 경진대회 (이미지 인식 == 이미지 분류(image classification)) 2010년부터 시작되었으며, 대용량의 이미지셋을 주고 이미지 분류 알고리즘의 성능을 평가하는 대회. 대회 우승 알고리즘들이 컴퓨터 비전 분야 발전에 큰 역할을 함
|

깊은 레이어를 가지는 우수한 모델 종류

