카테고리 없음

멀티모달 딥러닝을 활용한 이미지.센서 기반 불량 검출 및 위험도 예측_2회차

iron-min 2026. 1. 7. 19:55

컴퓨터 비전 분야 종류

 

→ Image Classification 에 대한 내용 정리

 

 

 

 

전이학습

이미 학습된 모델의 지식을 새로운 문제에 적용하여 성능을 향상시키는 기법

  • 기본 개념
    • 대규모 데이터로 사전 학습된 모델(예: ImageNet 같은 데이터셋으로 학습된 모델)의 가중치를 그대로 가져와서 새로운 문제에 적용
    • 사전 학습된 모델의 지식을 새로운 문제에 전이시켜 초기 학습 시간을 단축하고, 더 좋은 성능을 이끌어내는 것이 목표
  • 장점
    • 처음부터 모든 데이터를 학습하는 것보다 훨씬 적은 시간과 자원으로 높은 성능 달성 가능
    • 사전 학습된 모델의 **특징 추출(feature extraction)**을 활용하므로, 새로운 데이터에서도 일반화된 표현 학습 가능
  • 주요 기법
    • Feature Extraction: 사전 학습된 모델의 마지막 출력층 전까지의 가중치를 고정하고, 새로운 데이터의 특징 추출에 활용
    • Fine-tuning: 고정된 가중치 위에 새로운 데이터의 라벨을 추가해 전체 모델을 재학습하여 미세 조정

 

 

 

특징 추출(Feature Extraction) vs 파인튜닝 (Fine tuning)

  1. Feature Extraction
    • 사전 학습된 모델의 convolutional layers는 freeze하고, 마지막 classifier만 새로운 데이터셋에 맞게 재학습
    • 주로 입력 이미지의 feature 추출에 집중
    • 학습 시 새로운 데이터의 label에 대한 정보는 사용하지만, 전체 모델을 다시 학습하지는 않음
    • 주로 적은 양의 데이터로 빠르게 특징 추출이 필요할 때 유용
  2. Fine-tuning
    • 사전 학습된 모델의 모든 layers(convolutional + classifier)를 trainable하게 설정하고, 새로운 데이터셋에 맞춰 전체 모델을 재학습
    • 입력 이미지의 feature 추출뿐만 아니라, 분류기의 파라미터까지 미세 조정
    • 새로운 데이터셋에 대한 학습 과정이 포함되어 있어, 보다 정교한 모델 성능 개선 가능

 

데이터증강 (Augumentation)

데이터 증강이란?

  • 원본 데이터를 다양한 방법으로 변형하여 새로운 데이터를 생성하는 기법
  • 적은 양의 원본 데이터로도 모델의 학습 성능을 높이기 위해 활용
  1. 목적
    • 다양한 변형 데이터를 추가함으로써 모델의 일반화 능력 향상
    • 과적합을 방지하고, 새로운 데이터에 대한 모델의 견고성 강화
  2. 주요 기법
    • 이미지 회전(rotation): 입력 이미지를 랜덤하게 회전
    • 반전(flip): 이미지를 수평 또는 수직으로 반전
    • 자르기(crop): 이미지의 일부를 랜덤하게 잘라냄
    • 색조/채도 조절: 이미지의 색상 값을 변화
    • 노이즈 추가: 이미지에 랜덤한 노이즈를 추가

 

 

ILSVRC ImageNet 경진대회 및 모델소개

ILSVRC은 ImageNet Large Scale Visual Recognition Challenge의 약자로 이미지 인식 경진대회 (이미지 인식 == 이미지 분류(image classification))
2010년부터 시작되었으며, 대용량의 이미지셋을 주고 이미지 분류 알고리즘의 성능을 평가하는 대회. 대회 우승 알고리즘들이 컴퓨터 비전 분야 발전에 큰 역할을 함
  • 2010년, 2011년에는 얕은 구조의 알고리즘이 우승했으나, 2012년 CNN 기반 딥러닝 알고리즘 AlexNet이 우승하며 깊은 구조 알고리즘의 시대가 열림.
  • AlexNet은 인식 오류율을 16%까지 낮추며 딥러닝의 효과를 입증함.
  • 2015년에는 사람의 정확도(5%) 를 뛰어넘는 성과를 기록함.

 

깊은 레이어를 가지는 우수한 모델 종류