[GitLab] Client에서 Project Clone하기
·
기타
1. SSH Key 생성 - Git Bash에서 ssh-keygen 커맨드 입력. - C:\Users\사용자\ 경로에 .ssh 폴더 생성 확인 2. GitLab에 SSH Key 등록 - 우측 상단에 프로필->Edit profile - C:\Users\사용자\.ssh\id_rsa.pub 파일의 내용 Key에 입력. - Add Key 3. SourceTree에 SSH Key 등록 - SourceTree 도구->옵션 - SSH 키 : .ssh에 생성한 id_rsa 참조 - SSH 클라이언트 : OpenSSH 4. Project Clone - GitLab에서 SSH 복사. - SourTree에서 Project Clone.
[GitLab] 리눅스, 우분투 GitLab 설치, GitLab 서버 구축
·
기타
1. Git 설치 - sudo apt-get install git - sudo apt install git 2. GitLab 설치 https://about.gitlab.com/install/ Download and install GitLab Learn about the various GitLab installation packages and downloads for Ubuntu, Debian, Docker, Google Cloud, and many more. about.gitlab.com 위 링크에서 우분투 버전 체크하고 따라 설치하면 된다. - 필요한 패키지 설치 - GitLab package repository - gitlab-ee (Entrerprise Edition), gitlab-ce (Comm..
[Classification] ResNet
·
DeepLearning/Classification
ResNet 2015년 ILSVRC에서 우승, MS 개발. 2014년 GooLeNet이 22개 층인데 반면 ResNet은 152개 층. (층수가 깊어졌다) 깊게 하면 무조건 성능이 좋은가? -> 아니다! Gradient Vanishing/Exploding 파라미터 개수가 너무 많아지는 문제 발생 Residual Block 기존 일반적인 CNN은 입력 데이터(x)를 타겟값(y)으로 mapping 하는 함수 H(x)를 찾는 것이 목표이다. H(x) = ReLU ( w2 * ( ReLU ( w1 * x ) ) ) (w는 가중치) 이때, H(x)와 y의 차이를 최소화하는 방향으로 학습하게 된다. ResNet은 기존 CNN과 달리 입력값을 출력 값에 더하는 지름길(shortcut or skip-connection..
[Pytorch] tensor to PIL Image
·
언어 | Framework/Pytorch
tensor to numpy output_tensor = model(data) output_tensor = output_tensor.cpu() # tensor to numpy output_tensor = torch.squeeze(output_tensor[0]) output_numpy = output_tensor.numpy() ## if output_tensor.requires_grad==True # output_numpy = output_tensor.detach().numpy() numpy to PIL Image from torchvision import transforms # numpy to PIL Image output_image = transforms.ToPILImage()(output_numpy)
1x1 Convolution Layer
·
DeepLearning/Concept
1x1 conv layer의 장점 Channel(Filter) 수 조절 연산량 감소 비선형성 Channel 수 조절, 연산량 감소 1x1 conv layer를 사용하면 output size는 변함이 없지만 channel(filter)의 수를 조절할 수 있다. 이 channel 수를 적절히 조절하면 파라미터를 효과적으로 줄일 수 있다. 파라미터 수 = kernel size * kernel size * input channel * output channel 파라미터가 감소됨에 따라 같은 결과라도 1x1 conv layer를 사용하는 편이 연산량 감소에도 득이 됨을 알 수 있다. 비선형성 1x1 conv layer를 사용함에 따라 그만큼 ReLU Activation을 더 사용할 수 있게되는데, 이 때문에 모델..
[Classification] VGGNet
·
DeepLearning/Classification
VGGNet VGGNet 연구팀은 망의 깊이가 깊을 수록 model의 성능에 어떤 영향을 끼치는지 연구. 5x5 Conv를 한번 하는것 보다, 3x3 Conv를 두번 하는것이 망의 깊이가 깊어지고, parameter 수도 적어짐. VGGNet은 모든 Convolution filter size를 3x3으로 고정해서 사용. Pytorch Code import torch import torch.nn as nn def CBR2d(in_channels, out_channels, _kernal_size, _stride, _padding): return nn.Sequential( nn.Conv2d(in_channels, out_channels, kernel_size=_kernal_size, stride=_stride..
woongs_93
웅's blog