본문 바로가기

전체 글

(20)
[키보드 리뷰] 엠스톤 그루브 t87a 밀키축 리뷰 두둥 오늘은 내돈내산 엠스톤 키보드 리뷰입니다~! 바쁜 와중에 기분 전환을 할 겸 키보드 리뷰를 해보려고 합니다,,! 키감이 데굴데굴한 키보드를 알아보다가 엠스톤을 알게되었습니다. 윤활까지 되어있다고 해서 더 관심이 갔습니다. ( 풀윤활을 직접해본 후 또 하고 싶진 않다 생각했습니다,,😭 ) 제가 구매한 제품은, 엠스톤 groove T87A 밀키축(45g) 다크그레이 색상입니다! 가격 올해 3월에 구매했고 160,000원 정도에 구매했습니다. 밀키축 같은 특주축은 만원정도 더 비싼 것 같습니다. 풀윤활도 되어있는 것까지 감안하면 꽤 괜찮은 가격이라 생각했습니다..! 디자인 개인적으로 사실 처음엔 조금 아쉬웠습니다. 조금 더 컴팩트한 키배열이 있었으면 좋겠다 생각했고, 딱히 마음에 드는 색상이 없었습니다...
[논문 리뷰] A Review on Human Pose Estimation (2021) human pose estimation에 대한 리뷰 논문의 리뷰(?)입니다. 저는 human pose estimation 중에서도 딥러닝을 이용한 body pose estimation에 관심이 있습니다. 따라서 body 위주의 내용을 다루려고 합니다. 논문 링크 : https://arxiv.org/abs/2110.06877 A Review on Human Pose Estimation The phenomenon of Human Pose Estimation (HPE) is a problem that has been explored over the years, particularly in computer vision. But what exactly is it? To answer this, the concept..
[논문 리뷰] EfficientNet 논문 리뷰 (Rethinking Model Scaling for Convolutional Neural Networks) Transformer에 이어 ViT를 리뷰하려고 했으나,, 인턴 때 사용해보았던 Efficient Net이 급 궁금해져서 읽어보았습니다. EfficientNet : Rethinking Model Scaling for Convolutional Neural Networks (2020) 논문 링크 : https://arxiv.org/abs/1905.11946 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks Convolutional Neural Networks (ConvNets) are commonly developed at a fixed resource budget, and then scaled up for better accu..
[논문 리뷰] Transformer 논문 리뷰 (Attention Is All You Need) NLP에서 아주 유명한 논문인 Transformer를 리뷰해보겠습니다. ViT를 리뷰하기 전에 먼저 리뷰해보도록 하겠습니다. 논문 링크 : https://arxiv.org/abs/1706.03762 Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new arxiv..
[논문 리뷰] ResNet 논문 리뷰 오늘은 최근에 읽은 유명한 논문, ResNet을 리뷰해보려고 합니다. 논문 링크 : https://arxiv.org/abs/1512.03385 Deep Residual Learning for Image Recognition Deeper neural networks are more difficult to train. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. We explicitly reformulate the layers as learning residual functions with arxiv.org Abstra..
[그래프] 프로그래머스 타겟 넘버 파이썬 프로그래머스 코딩테스트 연습의 '타겟 넘버' 문제입니다. 깊이/너비 우선 탐색으로 분류 되어있으며, 재귀적으로 풀어볼 수 있습니다. [문제] 문제 출처 : https://programmers.co.kr/learn/courses/30/lessons/43165 [풀이] numbers의 길이는 최대 20 입니다. 재귀적인 트리구조를 생각해볼 수 있습니다. number의 첫번째 number가 -일 때와 +일 때를 각각 트리의 루트로 두고, 자식 노드도 마찬가지로, 다음 number가 -일 때 +일 때로 두고 지금까지 거친 노드의 합을 구해나갑니다. 그럼 마지막의 여러 리프노드에서 합이 target 값인지 아닌지 확인해 볼 수 있습니다. numbers = [4,1,2,1], target = 4 인 경우를 도식화 ..
[논문 리뷰] SynthTIGER 리뷰 SynthTIGER는 Synthetic Text Image GEneratoR Towrads Better Text Recognition Models 로, Clova ai 에서 발표한 Scene Text Recognition (STR) Dataset 생성 방법에 대한 논문입니다. OCR을 오래 하다보니 OCR 모델뿐만 아니라 데이터셋 생성도 매우 중요하다고 생각하게 되었습니다. 언어별로 다른 문자 수, 폰트, 문자 크기, 문자의 길이 등 너무나 다양한 특성을 가진 text를 학습시키기 위해 어떤 augmentation이 필요하고 어떤 합성 데이터 생성 방법이 필요할지 자연스레 고민해보게 되었는데, 제가 느꼈던 어려움들이 논문에서 하나하나 언급되는 것을 보고 반가운 기분이 들었습니다. + 참고 OCR은 크게 ..
[dp] 백준 14916 파이썬 백준 14916번 거스름돈 dp 풀이입니다. greedy 알고리즘으로 푸는 방법도 있지만, dp로도 분류되어 있어서 dp로 간단하게 풀어보았습니다. [문제] [과정] 처음엔 5로 나누어 떨어질 때, 2로 나누어 떨어질 때 등의 상황을 if문으로 적절하게 구성해서 구현해보려 했습니다. 점점 greedy 알고리즘으로 구현하게 되어, 이전 index에 저장될 값을 어떻게 이용해볼까 생각하다가 그냥 경우의 수를 쭉 작성해보았습니다. [풀이] 2원짜리 동전은 최대한 적게 사용해야 하고, 5원짜리 동전은 최대한 많이 사용해야 합니다. 작성하다 보면 2원짜리 동전은 5개 이상은 사용할 필요가 없다는 걸 알 수 있습니다. 또 추가적으로 답이 -1인 경우는 n이 1일 때와 n이 3일 때밖에 존재하지 않습니다. 간단히 생..