[Samba] Ubuntu 20에서 공유 폴더 만들기
·
기타
Ubuntu 설정 1. 공유할 폴더 생성 sudo mkdir /server-root sudo chmod 777 /server-root 2. 삼바 install apt install samba sudo service smbd status 3. /etc/samba/smb.conf 파일 열고 가장 아래 부분에 추가 [server-root] path = /server-root public = yes writable = yes valid users = newman 4. 설정 후 재시작 sudo service smbd restart 5. .conf 파일에서 설정한 유저 생성 useradd newman sudo smbpasswd -a newman # 비밀번호 설정 Windows 설정 1. Ubuntu ip 주소로 접근
[GitLab] Client에서 Project Clone하기
·
기타
1. SSH Key 생성 - Git Bash에서 ssh-keygen 커맨드 입력. - C:\Users\사용자\ 경로에 .ssh 폴더 생성 확인 2. GitLab에 SSH Key 등록 - 우측 상단에 프로필->Edit profile - C:\Users\사용자\.ssh\id_rsa.pub 파일의 내용 Key에 입력. - Add Key 3. SourceTree에 SSH Key 등록 - SourceTree 도구->옵션 - SSH 키 : .ssh에 생성한 id_rsa 참조 - SSH 클라이언트 : OpenSSH 4. Project Clone - GitLab에서 SSH 복사. - SourTree에서 Project Clone.
[GitLab] 리눅스, 우분투 GitLab 설치, GitLab 서버 구축
·
기타
1. Git 설치 - sudo apt-get install git - sudo apt install git 2. GitLab 설치 https://about.gitlab.com/install/ Download and install GitLab Learn about the various GitLab installation packages and downloads for Ubuntu, Debian, Docker, Google Cloud, and many more. about.gitlab.com 위 링크에서 우분투 버전 체크하고 따라 설치하면 된다. - 필요한 패키지 설치 - GitLab package repository - gitlab-ee (Entrerprise Edition), gitlab-ce (Comm..
[Classification] ResNet
·
DeepLearning/Classification
ResNet 2015년 ILSVRC에서 우승, MS 개발. 2014년 GooLeNet이 22개 층인데 반면 ResNet은 152개 층. (층수가 깊어졌다) 깊게 하면 무조건 성능이 좋은가? -> 아니다! Gradient Vanishing/Exploding 파라미터 개수가 너무 많아지는 문제 발생 Residual Block 기존 일반적인 CNN은 입력 데이터(x)를 타겟값(y)으로 mapping 하는 함수 H(x)를 찾는 것이 목표이다. H(x) = ReLU ( w2 * ( ReLU ( w1 * x ) ) ) (w는 가중치) 이때, H(x)와 y의 차이를 최소화하는 방향으로 학습하게 된다. ResNet은 기존 CNN과 달리 입력값을 출력 값에 더하는 지름길(shortcut or skip-connection..
[Pytorch] tensor to PIL Image
·
언어 | Framework/Pytorch
tensor to numpy output_tensor = model(data) output_tensor = output_tensor.cpu() # tensor to numpy output_tensor = torch.squeeze(output_tensor[0]) output_numpy = output_tensor.numpy() ## if output_tensor.requires_grad==True # output_numpy = output_tensor.detach().numpy() numpy to PIL Image from torchvision import transforms # numpy to PIL Image output_image = transforms.ToPILImage()(output_numpy)
1x1 Convolution Layer
·
DeepLearning/Concept
1x1 conv layer의 장점 Channel(Filter) 수 조절 연산량 감소 비선형성 Channel 수 조절, 연산량 감소 1x1 conv layer를 사용하면 output size는 변함이 없지만 channel(filter)의 수를 조절할 수 있다. 이 channel 수를 적절히 조절하면 파라미터를 효과적으로 줄일 수 있다. 파라미터 수 = kernel size * kernel size * input channel * output channel 파라미터가 감소됨에 따라 같은 결과라도 1x1 conv layer를 사용하는 편이 연산량 감소에도 득이 됨을 알 수 있다. 비선형성 1x1 conv layer를 사용함에 따라 그만큼 ReLU Activation을 더 사용할 수 있게되는데, 이 때문에 모델..
woongs_93
'분류 전체보기' 카테고리의 글 목록 (9 Page)