• 페러다임의 변화
    • 20년전 CNN 합성곱 연산이 오랜 강자로 군림. but 구조적 국소적인 부분만 필터링~ 즉, 전체를 보지못하는 한계.
    • 이미지 전체중 어느곳을 주의깊게 바라봐야하는 Attention 기법을 복합적으로 사용하는것이 중요해졌었음.
    • 그러다 점점점...  합성곱 연산을 사용하지않고, Attention 만으로 더 좋은 성능! Vision Transformer 새로운 왕좌.
  • Computer Vision
    • 주요 업무 : 이미지분류, 객체인식, 세크먼테이션, 3차원 인식, 얼굴 생성, 등등등.
    • 예) 테슬라 HydraNet : 카메라 8대 사용하여, 각 raw 를 CNN 처리 -> head 의 Transformer 통해, 자율주행.
  • CNN (Convolutional Neural Network)
    • 1989년 Yann LeCun 제안. 2018년도 컴퓨터 사인언스의 노벨상 까지도 수상한 대단한 업적.
      • AlexNet(2012) : 초창기 두각을 나타내지 못해오다... 이때부터 하드웨어의 발전으로 극적인 결실을 맺음.
      • VGGNet(2014) : 신경망을 깊게(길게) 쌓았더니~ 성능 좋아짐 (but, 0 가까운 값이 누적곱해져 -> 기억상실?)
      • ResNet(2015) : Skip Connection 개념을 활용~ 위 문제 해결함! (Layer 를 건너뛰고 이전 정보를 주입하는식)
        • 이후, "RB -> RB -> RB -> ..." 식으로 많은 네트워크에서 residual_block 개념을 차용하기 시작함.
      • DenseNet(2016) : .... (기존에는 연구자가 최적의 구조을 수작업으로 찾아 왔다면)
      • NasNet(2018) : 이때부터 Auto-- 를 사용하기 시작하면서 RNN 및 강화학습을 이용해 최적의 등등등을 찾음.
      • EfficientNet(2020) : 역시  Auto-- 를 사용해 "input크기,channel갯수,layer갯수" 등 최적을 기본 모델을 찾음.
        • "input크기,channel갯수,layer갯수" 간의 상관관계를 분석하여, 최적의 CNN 구조를 찾는식으로 발전함.
    • (low 일수록 "작은 edge,color 등에 민감하고" , high 일수록 "큰 object 등등등")
    • 이런 구조적인 컨셉 때문에, 한번의 국소적인 부분이 직접적인 영향을 줄수 없기 때문에~ 한계가 있게됨!!!
  • Attention
    • 가중 합성곱 : 각각의 곱에 가중치를 부여하여~ 중요한 부분을 더 부각 시키자!
    • 즉, 뭐 거창한것이 아니고! 가중치 메트릭스를 어떻게 정할것인지? 를 연구해서 만드는 일.
    • Key Query Value 구조를 활용함! (키와 쿼리의 유사도를 구하는???)
    • ...
  • Transformer (Attention is all you need)
  • Vision Transformer
  • ...

-끝-

'IT 서적 & 강좌' 카테고리의 다른 글

[교육] MDB  (0) 2023.03.10
[웨비나] AWS AI/ML 스페셜  (0) 2022.08.30
[세미나] 테크 블로그 만들기  (0) 2022.03.20
[인프런] 딥러닝과 모델들  (0) 2021.11.14
[웨비나] Container Immersion Day (4/8 EKS)  (0) 2021.04.08

+ Recent posts