Веедение в Deep Learning
Полносвязные сети (Fully Connected Networks, FCN / Dense): Архитектура, применение, ограничения.
Процесс обучения: Функции потерь (Loss Functions), оптимизаторы (SGD, Momentum, Adam, RMSprop), Backpropagation.
Регуляризация в нейронных сетях: L1/L2-регуляризация, Dropout, Batch Normalization, Early Stopping.
Сверточные нейронные сети (Convolutional Neural Networks, CNN):
Принципы работы: свертка, пулинг (max, average), padding, stride.
Классические архитектуры: LeNet, AlexNet, VGG, GoogLeNet (Inception), ResNet.
Обнаружение объектов: R-CNN, Fast R-CNN, Faster R-CNN, YOLO, SSD.
Семантическая и инстанс-сегментация: U-Net, Mask R-CNN.
Рекуррентные нейронные сети (Recurrent Neural Networks, RNN):
Принципы работы, проблема краткосрочной памяти.
Долгая краткосрочная память (LSTM) и управляемые рекуррентные блоки (GRU).
Модели на основе механизма внимания (Attention) и Трансформеры (Transformers):
Механизм внимания (Attention Mechanism).
Архитектура Трансформера: энкодер, декодер, Self-Attention, Positional Encoding.
Автокодировщики (Autoencoders): Вариационные автокодировщики (VAE) для генерации и сжатия признаков.
Порождающие состязательные сети (Generative Adversarial Networks, GANs):
Развертывание и специализированные приложения