본문 바로가기

전체 글42

60th_11_29(Wed)_GoogLeNet ❓CIFAR10 Dataset을 VGG로 학습시키면 성능이 떨어지는 이유 VGG19는 depth가 가장 큰 모델, 큰 이미지 데이터에 맞게 설계된 모델 CIFAR10은 크기가 작은 데이터기 때문에 VGG19 학습시키기 위한 데이터셋으론 적절하지 않음 Pooling Layer를 거칠 시 이미지가 절반으로 줄어들기 때문에 VGG19로 학습시켰을 때 높은 Accuracy를 달성하기 어려움 Pooling layer를 줄이거나, LeNet, VGG를 커스텀한다면 개선이 가능 1️⃣GoogLeNet ❓GoogLeNet? Sparsely connected sturucture Network Model = 넓게 포진되게 연결된 구조의 네트워크 모델 Layer가 깊어질수록 Backpropagation이 불안정(미분계수 소.. 2023. 11. 29.
59th_11_28(Tue)_VGG Implementation ✔️nn.Sequential을 통한 레이어 요약 H, W = 224, 224 input_tensor = torch.randn(size=(8, 3, H, W)) class VGG11(nn.Module): def __init__(self): super(VGG11, self).__init__() self.feature = nn.Sequential( nn.Conv2d(in_channels=3, out_channels=64, kernel_size=3, padding=1, stride=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2), nn.Conv2d(in_channels=64, out_channels=128, kernel_size=3, padding=1, stride.. 2023. 11. 29.
58th_11_27(Mon)_Convolutinal Neural Networks 1️⃣Convolutional Neural Networks ✔️LeNet5 Modeling import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt from torchvision.datasets import MNIST from torchvision.transforms import ToTensor from torch.utils.data import DataLoader from tqdm import tqdm from torch.optim import SGD class LeNet(nn.Module): def __init__(self): super(LeNet, self).__init__() self.layer1 = .. 2023. 11. 27.
[numpy] np.tile & np.repeat ❓numpy.tile ( A , reps) A에 해당하는 np.array를 reps만큼 반복해 생성 직관적 이해를 돕자면 hstack, vstack을 반복해준다고 생각하면 편하다 import numpy as np A = np.array([1, 2, 3]) #len(reps) = 2 np.tile(A, reps=(2, 2)) ```결과값: [[1, 1, 2, 2, 3, 3], [1, 1, 2, 2, 3, 3]]``` #len(reps) = 3 np.tile(A,reps=[3, 2, 3)) ```결과값: [ [[10, 20, 10, 20, 10, 20] [10, 20, 10, 20, 10, 20]], [[10, 20, 10, 20, 10, 20] [10, 20, 10, 20, 10, 20]], [[10, 2.. 2023. 11. 27.