
[Day 32] Computer Vision (CV) - 3 1. 강의 복습 내용 1.1) Object detection 더보기 Object detection 1. Object detection : Object detection(객체 검출)이란, 입력 영상이 주어질 때 영상 내에 존재하는 모든 카테고리에 대해서 Classification(분류)와 Localization(지역화)를 수행하는 Task 여기서 Localization(지역화)란, bounding box를 찾는 Regression(회귀)문제이고, Classification(분류)는 bounding box내에 물체가 무엇인지 분류하는 문제이다. *) Bounding Box를 평가하는 방법 : 보통 IoU가 특정 값(Threshold)를 넘으면 정답..

[Day 31] Computer Vision (CV) - 2 1. 강의 복습 내용 1.1) Image Classification Model 더보기 Image Classification Model 1. AlexNet - 이미지넷 스케일에서 작동하는 가장 간단한 구조 - 하지만 모델의 사이즈는 결코 작지 않다. (용량이 방대하지만 성능은 다소 떨어짐) - 간단한 구조이기 때문에 계산 속도는 가장 빠르다 2. VGGNet - 심플한 3x3 Convolutions으로 구성 - 가장 느린 계산 속도 -> 모델 사이즈도 크다. (메모리도 압도적으로 많이 차지) - 최근에 나온 모델들과도 비교해도 사이즈가 크고 계산 속도도 느림 (= 무겁다) 3. GoogLeNet (= Inception) - Inception mo..

[Day 30] Computer Vision (CV) - 1 1. 강의 복습 내용 1.1) Image Classification 더보기 Image Classification 1. Classifier (분류기) : Input이 Output(카테고리)에 속하는 지 맵핑해주는 역할 2. Classifier (분류기)의 구현 1. k-Nearest-Neighbors (k-NN) : 이 세상의 모든 데이터를 저장할 수 있다면, 영상 분류 문제는 결국 Nearest Neighbors Search 즉 검색 문제로 쉽게 취할 수 있을 것이다. - 그러나, 모든 데이터를 저장하는 것은 비현실적이며 혹여나 구축하였다 하더라도 방대한 양의 데이터베이스에서 영상들의 유사도를 계산하고 검색하는 시간도 아주 오래 걸릴 것이다. ..

1. U-net 이란? Semantic Segmentation에 가장 기본적으로 사용되던 모델 (U-net) 모델의 형태가 U자로 되어있어서 U-net이라고 불림 U-net의 모델 구조는 크게 Encoder, Decoder로 이루어져있다. Encoder(= Contracting Path), Decoder(= Expanding Path) 라고도 한다. 또한, Decoder 구간에서 Upsampling을 할 때, Localization을 좀 더 정확하게 하기 위해서 Encoder의 Feature들을 Concat을 한다. 즉 간단히 말해서, Encoder에서는 이미지의 크기를 줄여가면서 Feature는 더 많이 뽑아내며 나아가는 수축의 과정을 진행하고 Decoder에서는 이렇게 추출해온 Feature들을 기반..
[Day 26-29] 특강 1. 특강 리뷰 1) 21.03.02 화요일 실제 AI 모델을 개발하고 서비스하는 것에 있어서 많은 과정이 있고, 다양한 포지션의 인력이 필요하다. 또 그 과정 속에서 AI Modeling이 차지하고 있는 비중은 생각보다 그리 크지 않다. 게다가 급변하는 AI 분야에서 AutoML의 등장과 같이 AI Modeling의 수요는 앞으로 더더욱 낮아질 가능성이 크다. 때문에 급변하는 기술 속에서 빠르게 적응하는 능력이 필요하고, 한 가지만 잘하는 것이 아닌 AI 모델을 개발하고 서비스까지 하는 과정에서의 다양한 포지션의 능력을 소화할 수 있는 경쟁력을 갖추는 것이 중요하다. 나 역시 러닝커브가 좋은 사람이 되기 위해 노력하고, 그것을 가능하게 하려면 기본기에 더더욱 충실한 사람이 되..

NLP 전처리 과정 & 단어 임베딩 1. Introduction 자연어 데이터는 다른 데이터(Ex:이미지)와 달리 컴퓨터가 이해 할 수 있는 숫자로 변환해야만 한다. 정제되지 않은 입력 데이터와 모델을 연결시켜줄 수 있는 파이프라인 과정을 구축해야할 필요가 있다. 그렇기 때문에 NLP가 다른 데이터를 다루는 분야보다 전처리 단계에서 까다롭게 느껴지는 이유 중 하나라고 생각한다. 즉, 자연어를 모델에 입력시킬 수 있는 파이프라인을 구축하는 단계(자연어 전처리)와 모델은 자연어를 어떻게 이해 할 수 있는 지에 대해 흐름을 파악하는 것이 이 글의 목표 -> 따라서 사용되는 알고리즘이나, 모델 구조의 개념들은 생략 2. 실험에 사용 된 목표 TASK NLP Text Classification 문제 - 주어진 소..

[Day 25] GNN 1. 강의 복습 내용 1.1) GNN 기초 더보기 GNN 1. 정점 표현 학습 - 정점 표현 학습은 정점 임베딩(Node Embedding) 이라고도 한다. - 그래프의 정점들을 벡터의 표현하는 것이 목적 (그래프에서의 정점간 유사도를 임베딩 공간에서도 보존) - 앞에서 알아본 인접성/거리/경로/중첩/임의보행 기반 접근법은 모두 변환식 방법 - 변환식(Transdctive) 방법은 학습의 결과로 정점의 임베딩 자체를 얻음 - 귀납식(Inductive) 방법은 정점을 임베딩으로 변화시키는 함수, 즉 인코더를 얻는다. - 대표적인 귀납식 임베딩 방법에는 그래프 신경망(Graph Neural Network)가 있다. 1.1) 변환식 방법의 한계 - 학습이 진행된 이후에 추가된 정점에 대..

[Day 24] 정점 표현 & 추천 시스템 (심화) 1. 강의 복습 내용 1.1) 정점 표현 더보기 정점 표현 1. 정점 표현 학습 1.1) 정점 표현 학습이란? - 그래프의 정점들을 벡터의 형태로 표현하는 것 - 정점 표현 학습은 정점 임베딩(Node Embedding)이라고도 부름 - 정점 임베딩은 벡터 형태의 표현 그 자체를 의미 - 정점이 표현되는 벡터 공간을 임베딩 공간이라고 부른다. - 정점 표현 학습의 입력은 그래프 - 주어진 그래프의 각 정점 u에 대한 임베딩, 즉 벡터 표현z_{u}가 정점 임베딩의 출력 1.2) 정점 표현 학습의 이유 - 정점 임베딩의 결과로, 벡터 형태의 데이터를 위한 도구들을 그래프에도 적용할 수 있다. - 많은 기계학습 도구들은 벡터 형태로 표현된 사례(Instan..
- Total
- Today
- Yesterday
- 프로그래머스
- 데이터핸들링
- Unet
- 코딩테스트
- Vision AI 경진대회
- 데이터연습
- 부스트캠프 AI Tech
- pandas
- P-Stage
- 네트워킹데이
- Data Handling
- C++
- 다이나믹프로그래밍
- dfs
- python
- 백준
- ResNet
- 브루트포스
- Unet 구현
- 이분탐색
- 동적계획법
- 그리디
- DACON
- cnn
- NLP 구현
- DeepLearning
- AI 프로젝트
- 알고리즘
- 백트래킹
- 공공데이터
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |