2. Categorical Feature Encoding Challenge
2. Categorical Feature Encoding Challenge 범주형 데이터 이진분류 경진대회 링크 탐색적 데이터 분석 코드 참고 링크 난이도 2 경진대회명 범...
2. Categorical Feature Encoding Challenge 범주형 데이터 이진분류 경진대회 링크 탐색적 데이터 분석 코드 참고 링크 난이도 2 경진대회명 범...
1. 자전거 대여 수요 예측 자전거 대여 수요 예측 경진대회 링크 탐색적 데이터 분석 코드 참고 링크 난이도 1 경진대회명 자전거 대여 수요 예측 경진대회 ...
10-2. BFS (Breadth-First Search) 1. BFS란? Breadth-First Search: 너비 우선 탐색 DFS가 “한 방향으로 끝까지 파고들었다면”, BFS는 가까운 노드부터 차례차례 넓게 탐색 💡 동작 방식 예시 그래프: graph = { 1: [2, 3], 2: [4], ...
10-1. DFS (Depth-First Search) 1. DFS란? 깊이 우선 탐색 말 그대로 한 방향으로 끝까지 파고들었다가, 더 갈 데 없으면 이전으로 돌아와서 다른 길을 탐색하는 방식 💡 동작 방식 예시 그래프: 1 / \ 2 3 / \ 4 5 1 → 2 ...
9. 이진 탐색 (Binary Seach) 1. 이진 탐색이란? 정렬된 리스트에서 특정 값을 빠르게 찾는 방법 전체를 처음부터 끝까지 뒤지지 않고, 중간을 기준으로 반씩 줄여나가는 방식 💡 동작 방식: “반 갈라서 쳐내기” 예: 정렬된 리스트가 있다고 가정해보자 [1, 3, 5, 7, 9, 11, 13] 9를 찾고 싶다면 ...
8. 재귀 & 백트래킹 1. 재귀 (Recursion) 란? 함수가 자기 자신을 호출하는 것 수학적으로 반복되는 구조를 표현할 때 유용 예: 팩토리얼 n! = n × (n-1)! 5! = 5 × 4 × 3 × 2 × 1 1.1 재귀의 기본 구조 def 함수(): if 종료조건: # 반드시 필요! return...
7. Stack, Queue, Dequeue 1. 스택 (Stack) 이란? Last In, First Out (LIFO) 구조 나중에 들어온 데이터가 먼저 나간다 접시 쌓기라고 생각하면 됨 1.1 주요 연산: 연산 설명 push(x) x를...
2.4 교차 검증 일반적으로 훈련 데이터로 모델을 훈련하고, 테스트 데이터로 예측해 모델 성능을 측정한다. 모델을 훈련만 하고, 성능을 검증해보지 않으면 두 가지 문제가 발생할 수 있다. 모델이 과대적합될 가능성이 있다. 고정된 훈련 데이터만을 활용해 반복해서 훈련하면 모델이 훈련 데이터에만 과대적합될 가능성이 있다. ...
2.3 데이터 정규화 1. Feature Scaling feature scaling 이란 서로 다른 피처 값의 범위 (최댓값 - 최소값)가 일치하도록 조정하는 작업을 말한다. 값의 범위가 데이터마다 다르면 모델 훈련이 제대로 안될 수 있기 때문이다. [!] 단, 트리 기반 모델(랜덤 포레스트, XGBoost, LightGBM 등)은 피처 스케...
2.2 데이터 인코딩 범주형 데이터를 숫자 형태로 바꾸는 작업을 데이터 인코딩 이라고 한다. 대표적인 데이터 인코딩 방식으로는 레이블 인코딩과 원-핫 인코딩이 있다. 1. 레이블 인코딩 label encoding은 범주형 데이터를 숫자로 일대일 맵핑해주는 인코딩 방식이다. from sklearn.preprocessing import...
2.1 머신러닝 주요 개념 분류와 회귀 분류 평가지표 - - 회귀 평가 지표 오차행렬(정확도, 정밀도, 재현율, F1 점수) 로그 손실 ROCAUC ...
6. 완전탐색 1. 완전탐색이란? 가능한 모든 경우의 수를 시도해서 정답을 찾는 방식. 조건을 만족하는 답을 찾을 때까지 모든 경우를 전부 탐색 언제 사용? 입력 크기 작을 때 (보통 N ≤ 10~15 정도) “모든 경우를 일단 다 해봐야 해”라고 생각될 때 2. 완전탐색의 대표 유형 기법...
1. 데이터 종류 정형 데이터는 크게 수치형 데이터와 범주형 데이터로 나뉜다. 대분류 소분류 예시 수치형 데이터 (사칙 연산이 가능한 데이터) 연속형 데이터 키, 몸무게, 수입 이산형 데이터 ...
정렬 1. 각 유형별 예제 1.1 기본 정렬 함수 sorted(리스트) : 정렬된 새 리스트를 반환 (원본 변화 X) 리스트.sort() : 리스트 자체를 정렬 (원본 변화 O) arr = [5, 2, 9, 1] sorted_arr = sorted(arr) # [1, 2, 5, 9] arr.sort()...
문자열 1. 슬라이싱 문자열에서 일부를 자를 수 있음. s[start:end] → end는 포함 X s = "Hello World!" print(s[0:5]) # Hello print(s[-6:-1]) # World 예제 문자열에서 첫 번째 단어만 출력하세요. s = "Python is powerfil" print(...
List Comprehension 1. 리스트 컴프리헨션 리스트 컴프리헨션은 for 문을 이용해서 간결하게 리스트를 생성하는 방법이다. # 0부터 9까지 제곱 리스트 squares = [x**2 for x in range(10)] print(squares ) # [0, 1, 4, 9, 16, 25, 36, 49, 64, 81] # ...
Trainable Models and Params 딥러닝 모델의 핵심은 학습 가능한 파라미터이다. 이 파라미터들은 Backpropagation이라는 알고리즘을 통해 최적화된다. J $\uparrow$ $L_{CE}$ Loss Calcula...
1. Gradient-based Learning 1.1 Update Notation [x := x + a] ex) $x = 4$ $x := x + 2 \;\;\;\;\;\; := \text { is update notation}$ $x = 6$ Effectiveness of Gradients $y = 2x^2 \;\;\;$ 라고...
import torch 텐서 초기화 데이터로부터 직접 텐서 생성 data = [[1, 2], [3, 4]] x_data = torch.tensor(data) Numpy 배열로부터 생성 반대도 가능 np_array = np.array(data) x_np = torch.from_numpy(np_array) 다른 텐서로부터 생성 ...
본 프로젝트는 모델을 세분화하여 여러 저사양 MCU 장치에서 딥러닝 분산처리 테스트를 진행하기 전 증명 과정 단계임. 데이터셋 준비 및 전처리 import keras import numpy as np import tensorflow as tf from PIL import Image import numpy as np import matplotlib....
활성화 데이터 모델의 활성화 데이터는 모델 내부에서 연산되는 중간 결과(즉 각 계층(layer)의 출력값)들을 저장하기 위한 메모리 공간을 의미한다. 이 데이터는 모델의 다음 계층으로 전달되며, 최종 출력을 생성하는 데 필요한 정보를 포함하고 있다. 즉 모델이 복잡한 함수를 계산하고 최종적으로 예측을 수행하는 과정에서 생성되는 동적 데이터이다. ...
태그 #NLP 한줄요약 Seq2Seq Journal/Conference #Arxiv Link Seq2Seq Year(출판년도) 2014 저자 ...
태그 #ComputerVision 한줄요약 AlexNet Journal/Conference #NIPS Link AlexNet Year(출판년도) 2012 ...
태그 #TransferLearning 한줄요약 Transfer Learning Journal/Conference #NIPS Link Transfer Learning Year(출판년도) ...
태그 #NLP 한줄요약 Glove Journal/Conference #EMNLP Link Glove Year(출판년도) 2014 저자 ...
태그 #GenerativeModel 한줄요약 GAN Journal/Conference #NIPS Link GAN Year(출판년도) 2014 저자...
태그 #NLP 한줄요약 word2vec Journal/Conference #Arxiv Link word2vec Year(출판년도) 2013 저자 ...
태그 #Training 한줄요약 Dropout Journal/Conference #JMLR Link Dropout Year(출판년도) 2014 저...
태그 #NLP 한줄요약 Skip-gram Journal/Conference #NIPS Link Skip-gram Year(출판년도) 2013 저자...
태그 #ModelCompression #TransferLearning 한줄요약 Knowledge Distillation Journal/Conference #NIPS Link Knowledge Distillation...
태그 #ComputerVision #ExplainableAi 한줄요약 Saliency Map Journal/Conference #NIPS Link Saliency Map Year(출판년...
태그 #Normalization 한줄요약 Batch Normalization Journal/Conference #ICML Link Batch Normalization Year(출판년도)...
1. YOLOv8 패키지 클론 깃허브에서 코드 클론 git clone https://github.com/ultralytics/ultralytics.git 2. 사용할 모듈 정의 1. ultralytics/nn/modules 폴더에 들어가 새로운 파일 생성 2. 만들어준 파일에 pytorch 프레임워크로 새로운 모듈 클래스 ...
YOLOv1 Architecture 448x448 크기의 이미지를 입력받아 여러층의 Layer를 거쳐 이미지에 있는 객체 위치와 객체의 정체를 알아내는 구조이다. Object Detection 을 수행하는 모델은 크게 2가지 구조로 나뉜다. Backbone Head Backbone은 입력받은 이미지의 특성을 추출하는 역할을 하고 h...
태그 #Training 한줄요약 Adam Journal/Conference #ICLR Link Adam Year(출판년도) 2015 저자 ...
태그 #ComputerVision 한줄요약 Yolo Journal/Conference #CVPR Link Yolo Year(출판년도) 2015 저...
StyleGAN StyleGAN의 아이디어는 마치 화가가 눈동자 색만 다른 색으로 칠하고, 머리카락 색만 다른 색으로 칠하고 하는 것 처럼 PGGAN에서도 style들을 변형시키고 싶은데 Generator에 latent vector $z$ 가 바로 입력되기 때문에 entangle하게 되어서 불가능하다는 단점이 있었다. 그래서 논문의 저자는 style...
특징 고해상도 이미지 생성: BigGAN은 고해상도(예: 512x512 픽셀) 이미지를 생성하는 데 탁월한 능력을 가지고 있으며, 이전 모델들보다 훨씬 선명하고 상세한 이미지를 생성할 수 있다. 큰 규모의 네트워크와 데이터셋: BigGAN은 매우 큰 규모의 데이터셋(예: ImageNet)을 학습하고, 이를 통해 다양한...
1. Introduction Autoregressive models(ex. PixelCNN), VAEs, GANs 등 많은 생성모델들이 있다. 본 논문은 이 중에서도 GAN의 architecture를 사용한 논문이다. Autoregressive models : sharp images, slow to evaluate, no latent spac...
InfoGAN은 정보 이론(information theory)을 이용하여 무작위로 생성된 이미지에 대한 명확한 의미를 부여할 수 있도록 설계된 모델이다. 기본적인 GAN 구조에 “정보 최대화”(information maximization) 접근 방식을 추가하여, 생성자가 생성하는 이미지에서 어떤 특정한 특징(feature)을 조절할 수 있도록 한다....
Abstract 우리는 auto encoder 기반의 Generative Adversarial Networks를 학습하기 위해서 Wasserstein distance로부터 유도된 loss와 쌍을 이루는 평형을 부과하는 새로운 방법을 제안한다. 이 방법은 학습 동안 generator와 discriminator를 균형을 맞추는 것이다. 더구나, 이것은 ...
Introduction 본 논문에서 제시하는 바는 Discriminator를 일종의 Energy Function으로 보자는것이다. 여기서 [Energy Function]이란, 데이터를 받았을 때 해당 데이터가 [Data Manifold]에 가까우면 낮은 값을 내놓고 Data Manifold에서 멀다면 높은 값을 내놓는 함수를 의미한다. 여기서 내놓는...
데이터셋 경로 설정 """ 이미지 데터와 bounding box 데이터 갯수 확인 """ cur_dir = os.getcwd() data_dir = os.path.join(cur_dir, 'datasets/oxford_pet') image_dir = os.path.join(data_dir, 'images') # 모든 운영체제에 맞추려면 따로 쓰는...
f-GAN을 이해하기 위한 수학 기초 확률 분포와 확률 밀도 함수는 확률론과 통계학에서 중요한 개념이다. 이들은 무작위 실험의 결과나 무작위 변수(random variable)의 행동을 수학적으로 설명하는 데 사용된다. 확률은 어떤 일이 일어날 가능성 분포는 여러 시도에서 각 결과가 얼마나 자주 나타나는지 확률 분포는 모든 가능한 ...
import os import numpy as np import random import time import math import matplotlib.pyplot as plt import tensorflow as tf from tensorflow import keras from tensorflow.keras.applications import * f...
WGAN-GP를 이해하기 위한 수식 1. 유클리드 거리(Euclidean Distance) 유클리드 거리는 두 점 사이의 직선 거리를 측정한다. 2차원 유클리드 공간에서 두 점 $P_1(x_1, y_1)$과 $P_2(x_2, y_2)$ 사이의 유클리드 거리는 다음 공식으로 계산: $\text{Euclidean distance} = \sqrt{(x...
데이터 소개 reuters 뉴스 기사 Dataset 사용 reuters dataset은 11,228개의 뉴스기사와 46개의 주제를 가지고 있다. 모든 단어는 빈도에 따른 정수로 교체 되어있다. 관례적으로 정수 0은 특정 단어를 나타내는 것으로 사용하지 않는다. 학습 데이터와 정답 데이터는, 각각 아래와 같다. trai...
WGAN WGAN, 즉 Wasserstein GAN은 전통적인 GAN(Generative Adversarial Network)의 학습 안정성 문제를 해결하기 위해 제안된 모델. WGAN의 가장 중요한 특징은 목적 함수와 판별자(discriminator)를 수정하여, 생성자(generator)와 판별자 사이의 경쟁이 더 안정적으로 이루어지도록 한 점...
데이터 소개 직접 랜덤 생성한 Dataset을 사용 train_text 23 + 13 1 - 3 32 + 5 1 + 6 … train_answer 36 -2 3...
Least Squares Generative Adversarial Network 이론 손실함수로 바이너리 크로스 엔트로피 로스를 사용 바이너리 크로스 엔트로피를 사용해 minmax게임을 풀었다 바이너리 크로스 엔트로피 로스는 입력에 대한 예측의 유사도 (얼마나 진짜와 유사한가, 유사할수 있도록 얼마를 조절하면 되는...
데이터 소개 portrait 데이터로 유명한 PFCN dataset 사용 이미지는 다음과 같은 것을 보여준다. 800 x 600의 사람 portrait 이미지 사람 영역에 대한 흑백 portrait 이미지 pfcn_original 원본 800 x 600 이미지들 pfcn_small ...
1. Types of gnerative models 1. Autoregressive Models 특징 Autoregressive 모델은 각 데이터 포인트가 이전의 데이터 포인트에 조건부로 의존하는 순차적인 데이터 생성 과정을 모델링 한다. PixelCNN과 Transformer가 autoregressive 모델의 예 이 ...
데이터 소개 portrait 데이터로 유명한 PFCN dataset 사용 이미지는 다음과 같은 것을 보여준다. 800 x 600의 사람 portrait 이미지 사람 영역에 대한 흑백 portrait 이미지 pfcn_original 원본 800 x 600 이미지들 pfcn_small ...
1. Evaluation of generative models 생성모델을 평가하는 것은 매우 까다로울 수 있다. Key question: 어떤 작업이 중요한가? 샘플링 / 생성 밀도 추정 압축 잠재적 표현 학습 생성 모델을 평가하는 것은 매우 어려울 수 있으며, 성공적인 ...
데이터 소개 portrait 데이터로 유명한 PFCN dataset 사용 이미지는 다음과 같은 것을 보여준다. 800 x 600의 사람 portrait 이미지 사람 영역에 대한 흑백 portrait 이미지 pfcn_original 원본 800 x 600 이미지들 pfcn_small ...
1. Normalize the inputs 이미지는 픽셀 값이 0 ~ 255값을 가지고 있는데 이 값을 가지는 이미지를 -1 ~ 1로 노멀라이즈 하는것이 학습시에 유리하다. Generator의 output layer에는 tanh를 사용 </br> </br> 2. A modified loss function (수정된 ...
데이터 소개 portrait 데이터로 유명한 PFCN dataset 사용 이미지는 다음과 같은 것을 보여준다. 800 x 600의 사람 portrait 이미지 사람 영역에 대한 흑백 portrait 이미지 pfcn_original 원본 800 x 600 이미지들 pfcn_small ...
각 block에 존재할 수 있는 thread의 개수는 최대 1024개로 한계가 있다. 따라서 병렬처리의 효과를 더 크게 누리기 위해서는 여러 block들 간의 coordinate를 잘 해야 한다. GPU thread 에 data 를 할당하기 위해 각, thread의 인덱스를 활용한 데이터 분배 접근 전략을 활용한다. 각 block의 사이즈는 blo...
1. Problems with GANs 확률 분포가 암시적 생성된 이미지의 확률 분포를 직접 계산하는 것은 간단하지 않음 따라서, 일반적인 GAN은 샘플링/생성에만 적합 훈련이 어려움 수렴하지 않음 모드 붕괴가 발생할 수 있음 ...
데이터 소개 fashion MNIST 데이터 사용 이미지는 다음과 같은 것을 보여줍니다. (a) 28 x 28의 배열에서 의류의 모습이 어떻게 모사되는지 (b) 각 0-9까지의 다양한 의류 그림의 모습들 최종 목표 noise가 있는 fashion MNIST 이미지를 원래대로 복원하기 흑백 이미지와 칼라 이미지의 차이 ...
CUDA Thread Hierarchy - kernel: GPU function을 부르는 용어. kernel은 execution configuration에 따라 실행된다. - thread: GPU 작업의 기본 단위. 여러 thread가 병렬적으로 작동한다. - block: thread의 모임을 block이...
</br> 요약 DCGAN은 GAN의 개선 모델로 GAN과 다른 점은 다음과 같다 D(Discriminator) Strided Convolution을 사용 Batch Normalization을 사용. 입력 레이어 (첫번째)에는 사용하지 않는다 activation function으로 Leak...
데이터 소개 fashion MNIST 데이터 사용 이미지는 다음과 같은 것을 보여줍니다. (a) 28 x 28의 배열에서 의류의 모습이 어떻게 모사되는지 (b) 각 0-9까지의 다양한 의류 그림의 모습들 최종 목표 fashion MNIST이미지를 classification 하기 Multi class와 Multi label...
Accelerating Applications with CUDA C/C++ GPU-accelerated VS. CPU-only Applications CPU전용 애플리케이션에서 데이터는 CPU 에 할당된다. 모든 작업은 CPU 에서 수행된다. 가속화된 애플리케이션에서는 cudaMallocManaged() 를 사용해 데이터가 ...
Vanilla Generative Adversarial Networks(GAN) Imports import time import numpy as np import torch import torch.nn.functional as F from torchvision import datasets from torchvision import trnasforms...
데이터 소개 얼굴 데이터로 유명한 celeba dataset을 이용 위의 이미지는 다음과 같은 것을 보여줍니다. 10,177 개의 신원 얼굴 이미지 수 202,599 개 5 개의 랜드 마크 위치, 이미지 당 40 개의 바이너리 속성 주석 성별 큰 코 매력적 젊음 웃음 여부 모자 착용 여부 안경 착용 여...
CUDA = Compute Unified Device Architecture, from NVIDIA Computer graphics 현실과 똑같은 이미지 복잡한 모델 물리학, 광학 법칙 적용 부드러운 동작(motion) 생성 게다가, (매우 빠르게) 실시간 처리 목표 -> 영화 “매트릭스” 시리즈 결국, 괴...
이미지 생성 원리 GAN (Generative Adversarial Network)은 딥러닝 모델 중 이미지 생성에 널리 쓰이는 모델 CNN은 이미지에서 개인지 고양이인지 구분하는 이미지 분류 문제에 쓰인다면 GAN은 모델이 데이터셋과 유사한 이미지를 만들도록 하는 것 이미지 생성 원리 경찰...
RNN으로 손글씨 이미지 분류 데이터 소개 위의 이미지는 다음과 같은 것을 보여줍니다. (a) 28x28의 배열에서 3이 어떻게 모사되는지 (b) 각 0-9까지의 다양한 그림의 모습들 최종 목표 이전에 배웠던 MNIST fully-conntect network과 CNN classificaion외 RNN식 접근을 배워본다. ...
병렬 컴퓨팅 도입 과정 CPU / GPU의 설계 철학 반응 시간 (latency) 우선 처리량 (throughput) 우선 대규모 병렬 컴퓨팅(Massively Parallel Computing) MPC CPU와 GPU CPU : Central Processing Unit 중앙 처리 장치 보통 1개의 독립된...