grandov.ru страница 1
скачать файл
Алгоритм и программная реализация адаптивного метода обучения искусственных нейронных сетей.

В. Б.Лила РГСУ, Ростов-на-Дону
Задача обучения искусственной нейронной сети (ИНС) может рассматриваться как задача оптимизации, при этом основная проблема заключается в выборе среди разнообразных оптимизационных методов наиболее подходящего[1,2,3,4,5].

В основном все оптимизационные алгоритмы можно разбить на три категории:



  • методы случайного поиска;

  • методы стохастического градиентного спуска;

  • градиентные методы.

К группе градиентных методов относятся следующие методы:

  • метод градиентного спуска;

  • метод тяжелого шарика;

  • методы сопряженных градиентов.

Выбор в пользу градиентных методов обоснован тем, что, как правило, в задачах обучения критерий обучения можно выразить в виде дифференцируемой функции от весов нейронной сети. Тем не менее, неопределенность выбора метода обучения сохраняется. В автоматизированных системах нейро-сетевого программирования следует стремиться к сокращению неопределенности, которая присуща этим технологиям. Неопределенность в выборе алгоритма обучения в некоторой степени устраняется в предлагаемом ниже адаптивном методе обучения.

Общий анализ градиентных методов обучения нейронных сетей позволяет утверждать, что любой из этих методов можно представить как частный случай предлагаемого алгоритма.

Общую формулу для изменения весов выразим формулой (1):

, (1)

где вектор задает направление движения, а - размер шага на k-ой итерации.

Формулу расчета вектора выразим следующим образом:

,(2)

где вектор задает направление движения; - направление антиградиента на j-ой итерации; - коэффициент, определяющий вес i-го градиента; m определяет кол-во запоминаемых градиентов; k – порядковый номер текущей итерации.

Градиентный метод обучения из формулы 2 получается при . А методы сопряженных градиентов[1], которые наиболее часто употребляются при обучении нейронных сетей, получаются путем суммирования всех предыдущих направлений (при ).

Таким образом, предлагаемый адаптивный алгоритм является более гибким решением при обучении нейронных сетей.

Общий алгоритм адаптивного метода:


  1. Начало

  2. Выбираем стартовую точку с некоторыми координатами (x0;y0;...).

  3. Проверяем критерий остановки (число итераций, средняя квадратическая ошибка и др)

  4. Вычисляем антиградиент в текущей точке (на первой итерации стартовая точка).

  5. Заносим текущее направление в стек направлений.

  6. Считаем вектор направления по формуле 2.

  7. Перемещаемся по вычисленному вектору в новую точку.

  8. Возвращаемся в шаг 2. Если критерий остановки положителен, то заканчиваем алгоритм, если нет – переходим к шагу 3.

  9. Конец алгоритма. Имеем точку, близкую к минимуму функции.



Рис. 1. Общий алгоритм адаптивного метода
Рассмотрим пример использования такого подхода при оптимизации функции Розенброка [2]:

(3)

Вычисление минимума функции Розенброка считается трудной проблемой для итерационных методов поиска минимума.

Для проведения экспериментов было разработано программное обеспечение на платформе Microsoft .NET на языке C#.

Проведены эксперименты, из одной стартовой точки с координатами (-1.5; 3.5), с изменением параметров: η, m, β.

Для градиентного спуска (m=0), при оптимальном η=0.005 значение целевой функции - 0.30103179 достигается на 121-ой итерации. Движение и изменение значений функции изображено на рис. 2.

Для метода тяжелого шарика[1] , который также является частным случаем адаптивного метода, при m = 1, β=0.9 и η=0.005, значение целевой функции 0.12836612 достигается на 52-ой итерации. Результаты вычислений представлены на рис. 3.

Для адаптивного алгоритма с параметрами η=0.0004, m = 2, β = (0.9,0.081) значение целевой функции - 0.04807101 получено на 35-ой итерации. Результаты расчетов представлены на рис. 4.

Таким образом, для сложной функции Розенброка (3) адаптивный алгоритм оказался лучшим, по сравнению с классическими методами: градиентного спуска и тяжелого шарика.

Применение адаптивного алгоритма для обучения нейронных сетей требует настройки параметров: m, β и h . В связи с этим предлагается следующий адаптивный метод обучения ИНС, на основе адаптивного алгоритма.

Обозначим через ИНС 1 – основную нейронную сеть, которая будет обучаться на реальных данных - обучающей выборке 1 с помощью настроенного адаптивного алгоритма. Для настройки параметров алгоритма обучения используется ИНС 2, топологически вложенная в ИНС 1 и обучающая выборка 2, полученная путем случайного отбора некоторых примеров обучающей выборки 1. Для сокращения числа настраиваемых параметров воспользуемся представлением , где .




Рис. 2. Метод градиентного спуска, с шагом 0.005


Контроллер, обучающий ИНС 2 в автоматическом режиме на примере обучающей выборки 2, подбирает оптимальные параметры для адаптивного алгоритма. Критерием при этом является минимум числа итераций необходимых для достижения минимума.

После чего оптимальные параметры обучения передаются в ИНС 1 для обучения на реальных данных.


Рис. 3. Метод тяжелого шарика с m =1, β = 0.9 и шагом 0.001

Рис. 4. Адаптивный алгоритм, шаг 0.0004, m=2 и β = (0.9,0.081).


Предложенный метод обучения сводит к минимуму вмешательство человека в обучение ИНС, что делает его привлекательным. Поскольку не каждый пользователь ИНС-технологий владеет знаниями в области методов оптимизации. Кроме этого метод является гибким и настраиваемым на обучающую выборку методом обучения.

Список использованной литературы


  1. Тархов Д.А. Нейронные сети. Модели и алгоритмы. Кн.18. Справочное издание. (Серия 'Нейрокомпьютеры и их применение'): – М.: Радиотехника, 2005. – 256с.

  2. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. – М.: Горячая линия – Телеком, 2002. – 382с.: ил.

  3. Пучков Е.В., Лила В.Б. Применение градиентных методов оптимизации для обучения искусственных нейронных сетей на примере задачи прогнозирования временного ряда. – Нечеткие системы и мягкие вычисления: сб. ст. Третьей Всероссийской научной конференции: В 2.т. Т. I / Волгоград. гос. техн. ун-т; редкол.: А.В. Заболеева-Зотова (отв. ред.) [и др.]. – Волгоград, 2009. – 214с. с.109-116.

  4. Хайкин С. Нейронные сети: полный курс, 2-е издание. : Пер. с англ. – М.: Издательский дом «Вильямс», 2006. – 1104 с.: ил. – Парал. тит. англ.

  5. Бэстен Д.-Э., ванн ден Берг В.-М., Вуд Д. Нейронные сети и финансовые рынки: принятие решений в торговых операциях. – Москва: ТВП, 1997.-236с.
скачать файл



Смотрите также:
Алгоритм и программная реализация адаптивного метода обучения искусственных нейронных сетей
50.32kb.
«применение сверточных искусственных нейронных сетей в задачах астронавигации»
81.32kb.
С н. с к. ф м. н. Игнатов Федор Владимирович, ияф со ран, лаб 2, т
58.08kb.
Модификация ранцевой криптосистемы на основе искусственных нейронных сетей прямого распространения
29.04kb.
Программа дисциплины «Конструирование программного обеспечения» для направления 231000. 62 Программная инженерия подготовки бакалавра
200.11kb.
Принципы технической эксплуатации цифровой коммутационной станции
128.91kb.
2 Реализация образовательных программ смк роп ооп 2
422.33kb.
Цель нашей работы заключается в отборе культурно маркированного текстового материала для обучения чтению иностранных учащихся и разработка метода анализа таких текстов
78.71kb.
Особая технология организации учебного процесса, при которой внимание педагогов и учащихся сосредоточивается на более глубоком изучении одного или нескольких элементов учебной дисциплины
32.45kb.
К одному из наиболее общих законов развития биологической, технической, социальной систем относится закон рангового распределения
151.95kb.
Вид работ №20 «Устройство сетей электроснабжения напряжением до 330 кВ включительно»
20.19kb.
1. Анализ деятельности школы, направленной на получение бесплатного основного и среднего общего образования
500.91kb.