Deep Learning Questions Series
•
Computer Vision
Computer Vision
What is Computer Vision, and why is it important?
Explain the concept of Image Segmentation and its applications.
What is Object Detection, and how does it differ from Image Classification?
Describe the steps involved in building an Image Recognition System.
What are the challenges in implementing Real-Time Object Tracking?
Explain Feature Extraction in Computer Vision.
What is Optical Character Recognition (OCR), and what are its main applications?
How does a CNN differ from a traditional Neural Network in the context of Computer Vision?
What is the purpose of Data Augmentation in Computer Vision, and what techniques can be used?
What is the purpose of data augmentation in computer vision, and what techniques can be used?
Discuss some popular deep learning frameworks or libraries used for computer vision tasks.
What is an Alias and solution?
Probability
상황에 따른 확률분포간 거리를 선택할 수 있는가?
Euclidean Distance (L2 Norm)
Kullback-Leibler (KL) Divergence
Jensen-Shannon (JS) Divergence
Wasserstein Distance (Earth Mover’s Distance)
Total Variation (TV) Distance
Bhattacharyya Distance
Hellinger Distance
Chi-Square Distance
Deep Learning Basics
Machine Learning 과 Deep Learning의 공통점과 차이점을 설명하라.
ML 과 DL은 각각 어떤 상황에 적합한지 설명하시오.
Activation function의 정의와 사용 목적은?
•
주요 Activation Functions의 정의, 장점, 단점, 활용상황은?:
함수 | 출력 범위 | 주 용도 | 장점 | 단점 |
ReLU | [0, ∞) | 은닉층 | 간단, 빠름 | 음수 입력 시 죽음 |
Leaky ReLU | (-∞, ∞) | 은닉층 | ReLU 보완 | a 값 설정 필요 |
Sigmoid | (0, 1) | 이진 분류 출력층 | 확률적 해석 | 느린 학습, gradient vanishing |
Tanh | (-1, 1) | 은닉층 | Zero-centered | gradient vanishing |
Softmax | (0, 1), 합=1 | 다중 클래스 출력층 | 확률 분포 출력 | 은닉층 부적합 |
Swish | (-∞, ∞) | 은닉층 | 학습 성능 향상 | 계산 비용 증가 |
ReLU (Rectified Linear Unit):
Leaky ReLU:
Sigmoid:
Softmax:
Swish:
•
주요 Loss Functions의 정의, 특징, 단점, 적합한 상황은?:
MSE (Mean Squared Error)
MAE (Mean Absolute Error)
Binary Cross-Entropy (Log Loss)
Categorical Cross-Entropy
Hinge Loss
Huber Loss
KL Divergence (Kullback–Leibler Divergence)
Focal Loss
Autoencoders란 무엇인가?
Autoencoder의 다양한 레이어를 설명하고 세 가지 실용적인 사용 사례를 언급하라.
Data Augmentation이란 무엇이며, 그 장점은?
Knowledge Distillation에서 KL Divergence를 사용하는 이유는?
Knowledge Distillation의 각 상황에서 어떻게 학습이 이루어지는지 설명하시오.
1) P가 고정되었을 때
2)Q가 고정되었을 때
3) 모두 고정되어있지 않을 때
Transformers
Transformer 아키텍처란 무엇이며, 자연어 처리 작업에서 널리 사용되는 이유는 무엇인가?
Transformer 모델의 주요 구성 요소는 무엇인가?
Self-Attention이란 무엇이며, Transformer에서 어떻게 동작하는가?
Attention Mechanism이 Transformer에서 Long-Range Dependency를 어떻게 학습하는가?
Transformer의 한계점과 해결책은 무엇인가?
Transformer는 어떻게 훈련되며, Pre-Training과 Fine-Tuning의 역할은 무엇인가?
BERT란 무엇이며, 언어 이해 작업을 어떻게 개선하는가?
Transformer-based LM이 텍스트를 생성하는 과정을 설명하라.
대규모 언어 모델과 관련된 도전 과제 또는 윤리적 고려 사항은?
전이 학습(Transfer Learning) 개념과 트랜스포머에서의 활용 방법
How can transformers be used for tasks other than natural language processing, such as computer vision?
3D Generation
NeRF
Gaussian Splatting