목록COMPUTER VISION (2)
중요한건 꺾이지 않는 맥북
Pillow 라이브러리로 이미지를 읽어올때 이미지가 회전되는 경우가 있다. from PIL import Image, ImageOps image_path = '' image = Image.open(image_path) image = ImageOps.exif_transpose(image) pillow 라이브러리로 이미지를 읽은 뒤, ImageOps의 exif_transpose 내장 모듈로 다시 변환시켜주면 된다. exif_transpose 의 소스코드를 보면, def exif_transpose(image): """ If an image has an EXIF Orientation tag, return a new image that is transposed accordingly. Otherwise, return..

요약 이전 Vision Task에서 Self-Attention적용의 한계 Self-Attention을 적용하는 시도는 있었으나, Hardware Accelerators에 비효율적 → ResNet 구조가 SOTA였음 따라서 기존의 Transformer를 최대한 그대로 적용하고자 함 Attention is All you Need NLP에서 가장 대표적인 구조 "Self-Attention"를 활용한 Transformer 대표 모델 "BERT"는 Large Dataset(Corpus)를 사전학습(Pre-Train) → 작은 Task에서 미세조정(Fine-Tune) Transformer의 장점 계산 효율성(Efficiency) 및 확장성(Scalability) 100B Parameter도 학습 가능! 데이터셋이 ..