Рефераты. Функциональные модели универсального нейрокомпьютера

Подводя итоги этого раздела, можно сказать, что, используя метод двойственности в обучении нейронных сетей можно:

1.     Обучать сеть решению задачи.

2.     Подбирать входные данные так, чтобы на выходе нейронной сети был заданный ответ.

3.     Ставить вопросы о соответствии входных данных задачника постановке нейросетевой задачи.

7.2.               Задача обучения сети

С точки зрения математики, задача обучения нейронной сети является задачей минимизации множества функций многих переменных. Речь идет именно о неструктурированном множестве функций, зависящих от одних и тех же переменных. Под переменными понимаются обучаемые параметры сети, а под функциями – оценки решения сетью отдельных примеров. Очевидно, что сформулированная выше задача является как минимум трудно разрешимой, а часто и просто некорректной.

Основная проблема состоит в том, что при оптимизации первой функции, значения других функций не контролируются. И наоборот, при оптимизации всех других функций не контролируется значение первой функции. Если обучение устроено по циклу – сначала оптимизация первой функции, потом второй и т.д., то после завершения цикла значение любой из функций может оказаться не меньше, а больше чем до начала обучения. Такой подход к обучению нейронных сетей привел к появлению различных методов «коррекции» данной трудности. Так, например, появилось правило, что нельзя «сильно» оптимизировать оценку отдельного примера, для того, чтобы при оптимизации сеть «не сильно» забывала остальные примеры. Возникли различные правила «правильного» перебора примеров и т.д. Наиболее ярким примером такого правила является случайный перебор примеров, рекомендованный для обучения сетей, обучаемых без учителя (сетей Кохонена [130, 131]). Однако все эти правила не гарантировали быстрого достижения результата. Более того, часто результат вообще не достигался за обозримое время.

Альтернативой всем правилам «малой оптимизации» и «правильного перебора примеров» является выработка единой функции оценки всего обучающего множества. Правила построения оценки обучающего множества из оценок отдельных примеров приведены в главе «Оценка и интерпретатор ответа».

В случае использования оценки обучающего множества, математическая интерпретация задачи приобретает классический вид задачи минимизации функции в пространстве многих переменных. Для этой классической задачи существует множество известных методов решения [48, 104, 144, 183, 240]. Особенностью обучения нейронных сетей является их способность быстро вычислять градиент функции оценки. Под быстро, понимается тот факт, что на вычисления градиента тратится всего в два-три раза больше времени, чем на вычисление самой функции. Именно этот факт делает градиентные методы наиболее полезными при обучении нейронных сетей. Большая размерность пространства обучаемых параметров нейронной сети (102-106) делает практически неприменимыми все методы, явно использующие матрицу вторых производных.

7.3.               Описание алгоритмов обучения

Все алгоритмы обучения сетей методом обратного распространения ошибки опираются на способность сети вычислять градиент функции ошибки по обучающим параметрам. Даже правило Хебба использует вектор псевдоградиента, вычисляемый сетью при использовании зеркального порогового элемента (см. раздел «Пороговый элемент» главы «Описание нейронных сетей»). Таким образом, акт обучения состоит из вычисления градиента и собственно обучения сети (модификации параметров сети). Однако, существует множество не градиентных методов обучения, таких, как метод покоординатного спуска, метод случайного поиска и целое семейство методов Монте-Карло. Все эти методы могут использоваться при обучении нейронных сетей, хотя, как правило, они менее эффективны, чем градиентные методы. Некоторые варианты методов обучения описаны далее в этой главе.

Поскольку обучение двойственных сетей с точки зрения используемого математического аппарата эквивалентно задаче многомерной оптимизации, то в данной главе рассмотрены только несколько методов обучения, наиболее используемых при обучении сетей. Более полное представление о методах оптимизации, допускающих использование в обучении нейронных сетей, можно получить из книг по методам оптимизации (см. например [48, 104, 144]).

7.3.1.                       Краткий обзор макрокоманд учителя

При описании методов используется набор макросов, приведенный в табл. 2. В табл. 2 дано пояснение выполняемых макросами действий. Все макрокоманды могут оперировать с данными как пространства параметров, так и пространства входных сигналов сети. В первой части главы полагается, что объект обучения установлен заранее. В макросах используются понятия и аргументы, приведенные в табл. 1. Список макрокоманд приведен в табл. 2. При описании методов обучения все аргументы имеют тип, определяемый типом аргумента макрокоманды. Если в описании макрокоманды в табл. 2 тип аргумента не соответствует ни одному из типов, приведенных в табл. 1, то эти аргументы имеют числовой тип.

Таблица 1

Понятия и аргументы макрокоманд, используемых при описании учителя

Название

Смысл

Точка

Точка в пространстве параметров или входных сигналов. Аналогична вектору.

Вектор

Вектор в пространстве параметров или входных сигналов. Аналогичен точке.

Вектор_минимумов

Вектор минимальных значений параметров или входных сигналов.

Вектор_максимумов

Вектор максимальных значений параметров или входных сигналов.

Указатель_на_вектор

Адрес вектора. Используется для передачи векторов в макрокоманды.

Пустой_указатель

Указатель на отсутствующий вектор.

Таблица 2

Список макрокоманд, используемых для описания учителя

Название

Аргументы (типы)

Выполняемые действия

Модификация_вектора

Указатель_на_вектор

Старый_Шаг

Новый_Шаг

Генерирует запрос на модификацию вектора (см. раздел «Провести обучение (Modify)» приложения).

Вычислить_градиент


Вычисляет градиент функции оценки.

Установить_параметры

Указатель_на_вектор

Скопировать вектор, указанный в аргументе Указатель_на_вектор, в текущий вектор.

Таблица 2

Список макрокоманд, используемых для описания учителя (Продолжение)

Название

Аргументы (типы)

Выполняемые действия

Создать_вектор

Указатель_на_вектор

Создает экземпляр вектора с неопределенными значениями. Адрес вектора помещается в Указатель_на_вектор.

Освободить_вектор

Указатель_на_вектор

Освобождает память занятую вектором, расположенным по адресу Указатель_на_вектор.

Случайный_вектор

Указатель_на_вектор

В векторе, на который указывает Указатель_на_вектор, генерируется вектор, каждая из координат которого является случайной величиной, равномерно распределенной на интервале между значениями соответствующих координат векторов Вектор_минимумов и Вектор_максимумов.

Оптимизация_шага

Указатель_на_вектор

Начальный_Шаг

Производит подбор оптимального шага (см. рис. 3).

Сохранить_вектор

Указатель_на_вектор

Скопировать текущий вектор в вектор, указанный в аргументе Указатель_на_вектор.

Вычислить_оценку

Оценка

Вычисляет оценку текущего вектора. Вычисленную величину складывает в аргумент Оценка.

7.3.2.                       Неградиентные методы обучения

1.     Создать_вектор В1

2.     Создать_вектор В2

3.     Вычислить_оценку О1

4.     Сохранить_вктор В1

5.     Установить_параметры В1

6.     Случайный_вектор В2

7.     Модификация_вектора В2, 0, 1

8.     Вычислить_оценку О2

9.     Если О2<О1 то переход к шагу 11

10. Переход к шагу 5

11. О1=О2

12. Переход к шагу 4

13. Установить_параметры В1

14. Освободить_вектор В1

15. Освободить_вектор В2

Рис. 1. Простейший алгоритм метода случайной стрельбы

Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76



2012 © Все права защищены
При использовании материалов активная ссылка на источник обязательна.