• 0. 허깅 페이스
    • "Transformer 기반으로 파생된 다양한 모델", "각종 데이터셋", "학습 스크립트" 등을 제공하는 플랫폼.
    • Python Module
      • transformers.models : 다양한 모델을 pytorch 및 tensorflow 로 각각 구현. (모델별 tokenizer도 구현)
      • transformers.Trainer : 학습 및 평가 필요한 optimizer, weight, learning-rate, ckpt, tensorbord, evaluation 등.
  • % Transformer 란?
    • 17년 구글이 발표한 논문 "Attention is all you need" 에서 나온 모델.
    • 기존 seq2seq 구조의 Encoder/Decoder 를 따르면서도, Self-Attention 만으로 구현을 한것이 특징.
    • 텍스트, 이미지, 오디오 등을 처리함에 있어서 CNN RNN 보다 우수한 성능을 보여줌.
  • 1. Models
    • ...
  • 2. Datasets
  • 3. Spaces
  • ...
  • ex) Fine-tune a pretrained model 을 할수있는 API 및 도구
    • load_dataset() 데이터셋 다운로드 -> tokenizer() -> train, evaluation data 분리
    • AutoModelForSequenceClassification.from_pretrained() 모델 로드
    • TrainingArguments() 하이퍼파라미터 조절 및 Trainer() 파일튜닝 수행

-끝-

'AI' 카테고리의 다른 글

OpenAI Doc2  (0) 2024.05.25
OpenAI Cookbook (CHAT COMPLETIONS)  (0) 2024.05.24
OpenAI API & Lib  (0) 2024.05.24
OpenAI Docs  (0) 2023.01.29
facebook research  (0) 2022.04.29

+ Recent posts