Изучены возможности сетей глубокого обучения

26 Сентябрь 2019 - 11:38 | Конференции, собрания

Состоялся очередной научный семинар Отдела №1 Института информационных технологий НАНА на тему «Глубокое обучение».

Доклад представила сотрудница отдела № 1 Адила Имамвердиева. Она дала информацию об истории глубокого обучения, различных особенностях глубокого обучения и машинного обучения, применениях глубокого обучения, биологических нейронах, прямых переходах и рекуррентных нейросетях.

Рассказывая об истории глубокого обучения, являющегося одним из методов машинного обучения, основанного на искусственных нейросетях, выступившая сказала, что в 1958 году Ф. Розенблатт предложил однослойный персептрон, а в 1980 году Кунихико Фукусима – неокогнитронную модель с многослойными искусственными нейросетями.

А.Имамвердиева рассказала о различиях между глубоким обучением и машинным обучением, сказала, что модели глубокого обучения автоматически извлекают функции, используя большой сбор данных и архитектуру нейросети.

Она представила модель биологического нейрона и его математическую модель. Выступившая рассказала об особенностях функциях активации Sigmoid, ReLu и Softmax, широко используемых в моделях глубоких нейросетей. Она дала информацию о видах глубоких нейросетей, таких как CNN (Convolutional Neural Networks), RNNs (Recurrent Neural Networks), LSTM (Long Short-term Memory), DBNs (Deep Belief Networks), GANs (Generative Adversarial Networks), DBMs (Deep Boltzmann Machines), RBMs (Restricted Boltzmann Machines).  

А. Имамвердиева представила подробную информацию о двух классах нейросетевых архитектур – продвинутой прямой нейросети и рекуррентной нейросети. Выступившая довела до сведения, что информация в прямой нейронной сети передается от входов только по прямой линии. Она отметила, что в рекуррентных нейросетях исходный вывод данных используется в качестве следующего ввода.

Она также дала информацию об алгоритмах обратного рассеяния, исчезновении градиентов, взрывах градиентов, конвенционных нейросетях и их архитектурах (LeNet-5, AlexNet, VGGNet, ZFNet, GoogLeNet, ResNet) и об визуализации этих сетей.

Затем выступившая рассказала о преимуществах глубокого обучения, отметила, что функции глубокого обучения автоматически извлекаются и корректируются с учетом результата, а естественная изменчивость данных автоматически усваивается. Она подчеркнула, что глубокое обучение требует большой базы данных и, следовательно, больших затрат.

В заключение А. Имамвердиева рассказала о самых популярных конференциях и публикациях в этой области.

Состоялся обмен мнениями относительно доклада, были озвучены ответы на вопросы. Главный инженер института, доктор философии по технике, доцент Макруфа Гаджирагимова рекомендовала продолжить исследования в этой области.

© Все права защищены. При использовании информации гиперссылка на сайт www.iсt.az обязательна.