본문 바로가기

STUDY

(136)
까먹지 않기 위한 파이토치 공부 내용 정리2 * Broadcasting 행렬의 크기가 다르더라도 연산을 위해 자동으로 크기를 맞춰 주는 기능. 편리하나, Naive하게 크기가 맞춰지므로 주의해서 사용해야 함. '''Broadcasting''' # Same shape m1 = torch.FloatTensor([[3, 3]]) m2 = torch.FloatTensor([[2, 2]]) print(m1 + m2) # tensor([[5, 5]]) # Vector + scalar m1 = torch.FloatTensor([[1, 2]]) m2 = torch.FloatTensor([3]) # 변형 된다. 3 -> [[3, 3]] print(m1, m2) # tensor([[4., 5.]]) # 2X1 Vector + 1X2 Vector m1 = torch...
까먹지 않기 위한 파이토치 공부 내용 정리 * vector, Matrix, Tensor 1D : vector라고 부름 2D : Matrix라고 부름 3D : Tensor라고 부름 * pytorch Tensor shape convention 2D Tensor (Typical Simple Setting) $|t|=(batchsize, dim)$ 3D Tensor (Typical Compputer Vision) $|t| = (batch size, width, height)$ 3D Tensor (Typical Natural Language Processing) $|t| = (batch size, length, dim)$ * Import import numpy as np import torch * NumPy '''Ex. 1D Array with NumPy..
[프로그래머스] 전화번호 목록 [나의 솔루션] def solution(phone_book): answer = [] for num in phone_book: phone_book.remove(num) for n in phone_book: if n.find(num) == -1: answer.append('True') else: answer.append('False') phone_book.append(num) if 'False' in answer: return False else: return True 테스트 결과 3개의 테스트 케이스를 통과하였다. 그러나, 제출 후 체점하기를 하니.... 완전 난리났다.. 효율성 문제에서도.. ㅜㅜㅜ [다른 사람 코드] def solution(phone_book): answer = True hash_map..
(NeurIPS 2015) Spatial Transformer Networks * 논문 링크 : https://arxiv.org/pdf/1506.02025v3.pdf 아직은 논문을 읽기 전 상태로, 아래 링크의 블로그를 번역 정리한 내용을 작성하였음 논문은 추후 읽고 정리할 예정 https://towardsdatascience.com/review-stn-spatial-transformer-network-image-classification-d3cbd98a70aa Spatial Transformer Networks는 Google DeepMind에서 만든 Network임 적절한 영역을 자르고 스케일 정규화하는 데 도움이 되어 분류 작업을 단순화하고 더 나은 성능을 보여줌 본 논문은 Spatial Transform을 신경망으로 처리함 학습 기반 공간 변환에서 입력 또는 feature m..
(CVPR 2023) Learning Generative Structure Prior for Blind Text Image Super-resolution 리뷰 [Background] 1. Degradation ImageNet Challenging에서 depth를 늘리는 것만으로도 성능이 향상됨을 보여주었으나, 실제로는 depth는 어느정도 상승하다가 일정 시점을 넘어서면 vanishing/exploding gradient 문제를 발생시킴 이와 같이 depth가 깊은 상태에서 학습을 많이 진행한 경우 weight들의 분포가 균등하지 않고 역전파시 기울기가 충분하지 않아 안정적인 학습을 할 수 없게 하는 문제를 degradation 문제라고 함 [Related Work] 1. Blind Image SR - degradation estimation - establishing more realistic training data 위와 관련한 연구의 paradigm은 아..
(CVPR 2022) A Text Attention Network for Spatial Deformation Robust Scene Text Image Super-resolution 리뷰 및 공부 [Introduction] - Scene Text Image Super Resolution 목표 : 저해상도 이미지에서 텍스트의 해상도와 가독성을 높이는 것 - CNN 기반 방법 : 공간적으로 변형되거나 회전되고 곡선 모양의 텍스트에 대한 고해상도 이미지 재구성의 한계를 지님 > > local기반 연산을 채택하고 있기 때문에 변형으로 인한 변동 처리에 효과적이지 않음 - 본 논문 : 위 문제를 해결하기 위해 CNN 기반의 TATT(Text ATTention network)를 제안 1. text의 semantics는 text recognition module에 의해 text prior로 추출됨. 2. text reconstruction process에 prior text의 semantic guidance를..
torch.utils.data.DataLoader와 torch.utils.data.Dataset https://tutorials.pytorch.kr/beginner/basics/data_tutorial.html Dataset과 DataLoader 파이토치(PyTorch) 기본 익히기|| 빠른 시작|| 텐서(Tensor)|| Dataset과 DataLoader|| 변형(Transform)|| 신경망 모델 구성하기|| Autograd|| 최적화(Optimization)|| 모델 저장하고 불러오기 데이터 샘플을 처리하는 코 tutorials.pytorch.kr 위 문서를 정리 한 것임. 이론만 적은 글이므로 생략된 코드가 많음. 관련 코드는 위 링크를 살펴 볼 것. [torch.utils.data.DataLoader와 torch.utils.data.Dataset] 미리 준비한 데이터 셋, 가지고 있는 데..
기록 - 소프트웨어 생명 주기 [소프트웨어 생명 주기 Software Life Cycle = 소프트웨어 수명 주기] 소프트웨어 개발 단계와 각 단계별 주요 활동, 활동의 결과에 대한 산출물로 표현 이를 표현 하는 형태 : 소프트웨어 생명 주기 모형 = 소프트웨어 프로세스 모형 = 소프트웨어 공학 패러다임 소프트웨어 생명 주기 모형 예시 : 폭포수 모형, 프로토타입 모형, 나선형 모형, 애자일 모형 [폭포수 모형 Waterfall Model = 선형 순차적 모형] 폭포에서 한번 떨어진 물은 거슬러 올라갈 수 없듯 소프트웨어개발도 이전 단계로 돌아갈 수 없다는 개념을 반영하여 각 단계를 확실이 마무리 짓고 결과를 검토한 후 다음 단계를 진행하는 개발 방법론 가장 오래된 방법으로 고전적 생명 주기 모형 제품의 일부가 될 매뉴얼 작성 필요 ..

728x90