Состоялся очередной научный семинар Отдела №1 Института информационных технологий НАНА на тему «Глубокое обучение».
Доклад представила сотрудница отдела № 1 Адила Имамвердиева. Она дала информацию об истории глубокого обучения, различных особенностях глубокого обучения и машинного обучения, применениях глубокого обучения, биологических нейронах, прямых переходах и рекуррентных нейросетях.
Рассказывая об истории глубокого обучения, являющегося одним из методов машинного обучения, основанного на искусственных нейросетях, выступившая сказала, что в 1958 году Ф. Розенблатт предложил однослойный персептрон, а в 1980 году Кунихико Фукусима – неокогнитронную модель с многослойными искусственными нейросетями.
А.Имамвердиева рассказала о различиях между глубоким обучением и машинным обучением, сказала, что модели глубокого обучения автоматически извлекают функции, используя большой сбор данных и архитектуру нейросети.
Она представила модель биологического нейрона и его математическую модель. Выступившая рассказала об особенностях функциях активации Sigmoid, ReLu и Softmax, широко используемых в моделях глубоких нейросетей. Она дала информацию о видах глубоких нейросетей, таких как CNN (Convolutional Neural Networks), RNNs (Recurrent Neural Networks), LSTM (Long Short-term Memory), DBNs (Deep Belief Networks), GANs (Generative Adversarial Networks), DBMs (Deep Boltzmann Machines), RBMs (Restricted Boltzmann Machines).
А. Имамвердиева представила подробную информацию о двух классах нейросетевых архитектур – продвинутой прямой нейросети и рекуррентной нейросети. Выступившая довела до сведения, что информация в прямой нейронной сети передается от входов только по прямой линии. Она отметила, что в рекуррентных нейросетях исходный вывод данных используется в качестве следующего ввода.
Она также дала информацию об алгоритмах обратного рассеяния, исчезновении градиентов, взрывах градиентов, конвенционных нейросетях и их архитектурах (LeNet-5, AlexNet, VGGNet, ZFNet, GoogLeNet, ResNet) и об визуализации этих сетей.
Затем выступившая рассказала о преимуществах глубокого обучения, отметила, что функции глубокого обучения автоматически извлекаются и корректируются с учетом результата, а естественная изменчивость данных автоматически усваивается. Она подчеркнула, что глубокое обучение требует большой базы данных и, следовательно, больших затрат.
В заключение А. Имамвердиева рассказала о самых популярных конференциях и публикациях в этой области.
Состоялся обмен мнениями относительно доклада, были озвучены ответы на вопросы. Главный инженер института, доктор философии по технике, доцент Макруфа Гаджирагимова рекомендовала продолжить исследования в этой области.
© Все права защищены. При использовании информации гиперссылка на сайт www.iсt.az обязательна.