본문 바로가기

분류 전체보기

(153)
[프로그래머스] 문자열의 뒤의 n글자 [나의 풀이] def solution(my_string, n): answer = '' my_list = list(my_string) list_len = len(my_list) for s in range(list_len-n,list_len): answer += my_list[s] return answer [다른 사람 풀이] def solution(my_string, n): return my_string[-n:] 그냥 [-n:] 하면 답이 나온다.... 내 답안과 비교하면 엄청 간단하다.. ㅜㅜ
[프로그래머스] 공배수 [나의 풀이] def solution(number, n, m): answer = 0 if number%(n*m)==0: return 1 elif number%n==0 and number%m==0: return 1 else: return 0
까먹지 않기 위한 파이토치 공부 내용 정리3 * View(Reshape) 원하는 shape으로 바꿀 수 있음 '''View(Reshape)''' t = np.array([[[0, 1, 2], [3, 4, 5]], [[6, 7, 8], [9, 10, 11]]]) ft = torch.FloatTensor(t) print(ft.shape) # torch.Size([2, 2, 3]) print(ft.view([-1, 3])) # -1 부분은 건너뛰고, 두 번째 차원이 3이 되게 만들어라 print(ft.view([-1, 3]).shape) # tensor([[0., 1., 2.], # [3., 4., 5.], # [6., 7., 8.], # [9., 10., 11.]]) # torch.Size([4, 3]) print(ft.view([-1, 1, 3]))..
까먹지 않기 위한 파이토치 공부 내용 정리2 * Broadcasting 행렬의 크기가 다르더라도 연산을 위해 자동으로 크기를 맞춰 주는 기능. 편리하나, Naive하게 크기가 맞춰지므로 주의해서 사용해야 함. '''Broadcasting''' # Same shape m1 = torch.FloatTensor([[3, 3]]) m2 = torch.FloatTensor([[2, 2]]) print(m1 + m2) # tensor([[5, 5]]) # Vector + scalar m1 = torch.FloatTensor([[1, 2]]) m2 = torch.FloatTensor([3]) # 변형 된다. 3 -> [[3, 3]] print(m1, m2) # tensor([[4., 5.]]) # 2X1 Vector + 1X2 Vector m1 = torch...
까먹지 않기 위한 파이토치 공부 내용 정리 * vector, Matrix, Tensor 1D : vector라고 부름 2D : Matrix라고 부름 3D : Tensor라고 부름 * pytorch Tensor shape convention 2D Tensor (Typical Simple Setting) $|t|=(batchsize, dim)$ 3D Tensor (Typical Compputer Vision) $|t| = (batch size, width, height)$ 3D Tensor (Typical Natural Language Processing) $|t| = (batch size, length, dim)$ * Import import numpy as np import torch * NumPy '''Ex. 1D Array with NumPy..
[프로그래머스] 전화번호 목록 [나의 솔루션] def solution(phone_book): answer = [] for num in phone_book: phone_book.remove(num) for n in phone_book: if n.find(num) == -1: answer.append('True') else: answer.append('False') phone_book.append(num) if 'False' in answer: return False else: return True 테스트 결과 3개의 테스트 케이스를 통과하였다. 그러나, 제출 후 체점하기를 하니.... 완전 난리났다.. 효율성 문제에서도.. ㅜㅜㅜ [다른 사람 코드] def solution(phone_book): answer = True hash_map..
(NeurIPS 2015) Spatial Transformer Networks * 논문 링크 : https://arxiv.org/pdf/1506.02025v3.pdf 아직은 논문을 읽기 전 상태로, 아래 링크의 블로그를 번역 정리한 내용을 작성하였음 논문은 추후 읽고 정리할 예정 https://towardsdatascience.com/review-stn-spatial-transformer-network-image-classification-d3cbd98a70aa Spatial Transformer Networks는 Google DeepMind에서 만든 Network임 적절한 영역을 자르고 스케일 정규화하는 데 도움이 되어 분류 작업을 단순화하고 더 나은 성능을 보여줌 본 논문은 Spatial Transform을 신경망으로 처리함 학습 기반 공간 변환에서 입력 또는 feature m..
(CVPR 2023) Learning Generative Structure Prior for Blind Text Image Super-resolution 리뷰 [Background] 1. Degradation ImageNet Challenging에서 depth를 늘리는 것만으로도 성능이 향상됨을 보여주었으나, 실제로는 depth는 어느정도 상승하다가 일정 시점을 넘어서면 vanishing/exploding gradient 문제를 발생시킴 이와 같이 depth가 깊은 상태에서 학습을 많이 진행한 경우 weight들의 분포가 균등하지 않고 역전파시 기울기가 충분하지 않아 안정적인 학습을 할 수 없게 하는 문제를 degradation 문제라고 함 [Related Work] 1. Blind Image SR - degradation estimation - establishing more realistic training data 위와 관련한 연구의 paradigm은 아..

728x90