МЕНЮ


Фестивали и конкурсы
Семинары
Издания
О МОДНТ
Приглашения
Поздравляем

НАУЧНЫЕ РАБОТЫ


  • Инновационный менеджмент
  • Инвестиции
  • ИГП
  • Земельное право
  • Журналистика
  • Жилищное право
  • Радиоэлектроника
  • Психология
  • Программирование и комп-ры
  • Предпринимательство
  • Право
  • Политология
  • Полиграфия
  • Педагогика
  • Оккультизм и уфология
  • Начертательная геометрия
  • Бухучет управленчучет
  • Биология
  • Бизнес-план
  • Безопасность жизнедеятельности
  • Банковское дело
  • АХД экпред финансы предприятий
  • Аудит
  • Ветеринария
  • Валютные отношения
  • Бухгалтерский учет и аудит
  • Ботаника и сельское хозяйство
  • Биржевое дело
  • Банковское дело
  • Астрономия
  • Архитектура
  • Арбитражный процесс
  • Безопасность жизнедеятельности
  • Административное право
  • Авиация и космонавтика
  • Кулинария
  • Наука и техника
  • Криминология
  • Криминалистика
  • Косметология
  • Коммуникации и связь
  • Кибернетика
  • Исторические личности
  • Информатика
  • Инвестиции
  • по Зоология
  • Журналистика
  • Карта сайта
  • Нейрокомпьютерные системы

    процесс обучения состоит в выборе нейрона Кохонена с весовым вектором,

    наиболее близким к входному вектору, и дальнейшем приближении весового

    вектора к входному. Снова отметим, что процесс является

    самообучением, выполняемым без учителя. Сеть самоорганизуется таким

    образом, что данный нейрон Кохонена имеет максимальный выход для данного

    входного вектора. Уравнение, описывающее процесс обучения имеет

    следующий вид:

    Wн= Wc + ( (x – Wc), (4.7)

    где wH - новое значение веса, соединяющего входную компоненту хc

    выигравшим нейроном; wc - предыдущее значение этого веса; ( -

    коэффициент скорости обучения, который может варьироваться в процессе

    обучения. Каждый вес, связанный с выигравшим нейроном Кохонена,

    изменяется пропорционально разности между его величиной и величиной

    входа, к которому он присоединен. Направление изменения минимизирует

    разность между весом и его входом. На рис. 4.3 этот процесс показан

    геометрически в двумерном виде. Сначала находится вектор X-Wc, для

    этого проводится отрезок из конца W в конец X. Затем этот вектор

    укорачивается умножением его на скалярную величину (, меньшую

    единицы, в результате чего получается вектор изменения (. Окончательно

    новый весовой вектор W является отрезком, направленным из начала

    координат в конец вектора (. Отсюда можно видеть, что эффект обучения

    состоит во вращении весового вектора в направлении входного вектора без

    существенного изменения его длины.

    [pic]

    Рис.4.3. Вращение весового вектора в процессе обучения (WH – вектор новых

    весовых коэффициентов, Wc - вектор старых весовых коэффициентов).

    Переменная ( является коэффициентом скорости обучения, который

    вначале обычно равен ~ 0,7 и может постепенно уменьшаться в процессе

    обучения. Это позволяет делать большие начальные шаги для быстрого

    грубого обучения и меньшие шаги при подходе к окончательной величине.

    Если бы с каждым нейроном Кохонена ассоциировался один входной

    вектор, то слой Кохонена мог бы быть обучен с помощью одного вычисления

    на вес. Веса нейрона-победителя приравнивались бы к компонентам

    обучающего вектора (( = 1). Как правило, обучающее множество включает много

    сходных между собой входных векторов, и сеть должна быть обучена

    активировать один и тот же нейрон Кохонена для каждого из них. В этом

    случае веса этого нейрона должны получаться усреднением входных

    векторов, которые должны его активировать. Постепенное уменьшение

    величины « уменьшает воздействие каждого обучающего шага, так что

    окончательное значение будет средней величиной от входных векторов,

    на которых происходит обучение. Таким образом, веса, ассоциированные с

    нейроном, примут значение вблизи «центра» входных векторов, для которых

    данный нейрон является «победителем».

    Выбор начальных значений весовых векторов

    Всем весам сети перед началом обучения следует придать начальные

    значения. Общепринятой практикой при работе с нейронными сетями

    является присваивание весам небольших случайных значений. При обучении

    слоя Кохонена случайно выбранные весовые векторы следует нормализовать.

    Окончательные значения весовых векторов после обучения совпадают с

    нормализованными входными векторами. Поэтому нормализация перед началом

    обучения приближает весовые векторы к их окончательным значениям,

    сокращая, таким образом, обучающий процесс. Рандомизация весов слоя

    Кохонена может породить серьезные проблемы при обучении, так как в

    результате ее весовые векторы распределяются равномерно по поверхности

    гиперсферы. Из-за того, что входные векторы, как правило, распределены

    неравномерно и имеют тенденцию группироваться на относительно малой

    части поверхности гиперсферы, большинство весовых векторов будут

    так удалены от любого входного вектора, что они никогда не будут давать

    наилучшего соответствия. Эти нейроны Кохонена будут всегда иметь нулевой

    выход и окажутся бесполезными. Более того, оставшихся весов, дающих

    наилучшие соответствия, может оказаться слишком мало, чтобы разделить

    входные векторы на классы, которые расположены близко друг к другу на

    поверхности гиперсферы. Допустим, что имеется несколько множеств

    входных векторов, все множества сходные, но должны быть разделены на

    различные классы. Сеть должна быть обучена активировать отдельный

    нейрон Кохонена для каждого класса. Если начальная плотность

    весовых векторов в окрестности обучающих векторов слишком мала, то

    может оказаться невозможным разделить сходные классы из-за того, что

    не будет достаточного количества весовых векторов в интересующей нас

    окрестности, чтобы приписать по одному из них каждому классу входных

    векторов. Наоборот, если несколько входных векторов получены

    незначительными изменениями из одного и того же образца и должны быть

    объединены в один класс, то они должны включать один и тот же нейрон

    Кохонена. Если же плотность весовых векторов очень высока вблизи группы

    слегка различных входных векторов, то каждый входной вектор может

    активировать отдельный нейрон Кохонена. Это не является катастрофой,

    так как слой Гроссберга может отобразить различные нейроны Кохонена в

    один и тот же выход, но это расточительная трата нейронов Кохонена.

    Наиболее желательное решение состоит в том, чтобы распределять весовые

    векторы в соответствии с плотностью входных векторов, которые должны

    быть разделены, помещая тем самым больше весовых векторов в окрестности

    большого числа входных векторов. На практике это невыполнимо, однако

    существует несколько методов приближенного достижения тех же целей.

    Одно из решений, известное под названием метода выпуклой

    комбинации (convex combination method), состоит в том, что все веса

    приравниваются одной и той же величине 1/[pic], где п - число

    входов и, следователь но, число компонент каждого весового вектора.

    Благодаря этому все весовые векторы совпадают и имеют единичную

    длину. Каждой же компоненте входа Х придается значение ((хi +

    {[1/[pic]](1 - ()}), где п - число входов. В начале, а очень мало,

    вследствие чего все входные векторы имеют длину, близкую к

    1/[pic], и почти совпадают с векторами весов. В процессе обучения

    сети (. постепенно возрастает, приближаясь к единице. Это позволяет

    разделять входные векторы и окончательно приписывает им их истинные

    значения. Весовые векторы отслеживают один или небольшую группу

    входных векторов и в конце обучения дают требуемую картину выходов.

    Метод выпуклой комбинации хорошо работает, но замедляет процесс обучения,

    так как весовые векторы подстраиваются к изменяющейся цели.

    Другой подход состоит в добавлении шума к входным век торам. Тем

    самым они подвергаются случайным изменениям, схватывая в конце концов

    весовой вектор. Этот метод также работоспособен, но еще более

    медленен, чем метод выпуклой комбинации.

    Третий метод начинает со случайных весов, но на начальной

    стадии обучающего процесса подстраивает все веса, а не только

    связанные с выигравшим нейроном Кохонена. Тем самым весовые векторы

    перемещаются ближе к области входных векторов. В процессе обучения

    коррекция весов начинает производиться лишь для ближайших к победителю

    нейронов Кохонена. Этот радиус коррекции посте пенно уменьшается, так

    что в конце концов корректируются только веса, связанные с выигравшим

    нейроном Кохонена.

    Еще один метод наделяет каждый нейрон Кохонена «Чувством

    справедливости». Если он становится победителем чаще своей законной доли

    времени (примерно 1/k, где k - число нейронов Кохонена), он временно

    увеличивает свой порог, что уменьшает его шансы на выигрыш, давая тем

    самым возможность обучаться и другим нейронам. Во многих приложениях

    точность результата существенно зависит от распределения весов. К

    сожалению, эффективность различных решений исчерпывающим образом не

    оценена и остается проблемой.

    Режим интерполяции

    До сих пор мы обсуждали алгоритм обучения, в котором для каждого

    входного вектора активировался лишь один нейрон Кохонена. Это называется

    методом аккредитации. Его точность ограничена, так как выход полностью

    является функцией лишь одного нейрона Кохонена. В методе

    интерполяции целая группа нейронов Кохонена, имеющих наибольшие выходы,

    может передавать свои выходные сигналы в слой Гроссберга. Число

    нейронов в такой группе должно выбираться в зависимости от задачи, и

    убедительных данных относительно оптимального размера группы не

    имеется. Как только группа определена, ее множество выходов NET

    рассматривается как вектор, длина которого нормализуется на единицу

    делением каждого значения NET на корень квадратный из суммы квадратов

    значений NET в группе. Все нейроны вне группы имеют нулевые выходы.

    Метод интерполяции способен устанавливать более сложные

    соответствия и может давать более точные результаты. По-прежнему,

    однако, нет убедительных данных, позволяющих сравнить режимы

    интерполяции и аккредитации.

    Статистические свойства обученной сети

    Метод обучения Кохонена обладает полезной и интересной

    способностью извлекать статистические свойства из множества входных

    данных. Как показано Кохоненом [8], для полностью обученной сети

    вероятность того, что случайно выбранный входной вектор (в

    соответствии с функцией плотности вероятности входного множества)

    будет ближайшим к любому заданному весовому вектору, равна 1/k, где

    k - число нейронов Кохонена. Это является оптимальным распределением

    весов на гиперсфере. (Предполагается, что используются все весовые

    векторы, что имеет место лишь в том случае, если используется один из

    обсуждавшихся методов распределения весов.)

    ОБУЧЕНИЕ СЛОЯ ГРОССБЕРГА

    Слой Гроссберга обучается относительно просто. Входной вектор,

    являющийся выходом слоя Кохонена, подается на слой нейронов Гроссберга,

    и выходы слоя Гроссберга вычисляются, как при нормальном

    функционировании. Далее, каждый вес корректируется лишь в том случае,

    если он соединен с нейроном Кохонена, имеющим ненулевой выход. Величина

    коррекции веса пропорциональна разности между весом и требуемым выходом

    нейрона Гроссберга, с которым он соединен. В символьной записи

    (ijн = (ijc + ((yj - (ijc)ki, (4.8)

    где k. - выход i-го нейрона Кохонена (только для одного нейрона Кохонена

    он отличен от нуля); уj - j-ая компонента вектора желаемых выходов.

    Первоначально ( берется равным ~0,1 и затем постепенно уменьшается в

    процессе обучения. Отсюда видно, что веса слоя Гроссберга будут

    сходиться к средним величинам от желаемых выходов, тогда как веса слоя

    Кохонена обучаются на средних значениях входов. Обучение слоя

    Гроссберга - это обучение с учителем, алгоритм располагает желаемым

    выходом, по которому он обучается. Обучающийся без учителя,

    самоорганизующийся слой Кохонена дает выходы в недетерминированных

    позициях. Они отображаются в желаемые выходы слоем Гроссберга.

    Глава 5 Стохастические методы

    Стохастические методы полезны как для обучения искусственных

    нейронных сетей, так и для получения выхода от уже обученной

    сети. Стохастические методы обучения приносят большую пользу, позволяя

    исключать локальные минимумы в процессе обучения. Но с ними также связан

    ряд проблем. Использование стохастических методов для получения

    выхода от уже обученной сети рассматривалось в работе [2] и обсуждается

    нами в гл. 6. Данная глава посвящена методам обучения сети.

    ИСПОЛЬЗОВАНИЕ ОБУЧЕНИЯ

    Искусственная нейронная сеть обучается посредством некоторого

    процесса, модифицирующего ее веса. Если обучение успешно, то

    предъявление сети множества входных сигналов приводит к появлению

    желаемого множества выходных сигналов. Имеется два класса обучающих

    методов: детерминистский и стохастический. Детерминистский метод

    обучения шаг за шагом осуществляет процедуру коррекции весов сети,

    основанную на использовании их текущих значений, а также величин

    входов, фактических выходов и желаемых выходов. Обучение персептрона

    является примером подобного детерминистского подхода (см. гл. 2).

    Стохастические методы обучения выполняют псевдослучайные изменения

    величин весов, сохраняя те изменения, которые ведут к улучшениям. Чтобы

    увидеть, как это может быть сделано, рассмотрим рис. 5.1, на котором

    изображена типичная сеть, в которой нейроны соединены с помощью весов.

    Выход нейрона является здесь взвешенной суммой его входов, которая

    преобразована с помощью нелинейной функции (подробности см. гл. 2).

    Для обучения сети может быть использована следующая процедура:

    1. Предъявить множество входов и вычислить получающиеся выходы.

    2. Сравнить эти выходы с желаемыми выходами i вычислить величину

    разности между ними. Общепринятый метод состоит в нахождении разности

    между фактическим i желаемым выходами для каждого элемента обучаемой

    пары возведение разностей в квадрат и нахождение суммы этих квадратов.

    Целью обучения является минимизация это разности, часто называемой

    целевой функцией.

    3. Выбрать вес случайным образом и подкорректировать его на небольшое

    случайное значение. Если коррекция помогает (уменьшает целевую функцию),

    то сохранит; ее, в противном случае вернуться к первоначальном:

    значению веса.

    4. Повторять шаги с 1 до 3 до тех пор, пока сеть не будет обучена в

    достаточной степени.

    [pic]

    Этот процесс стремится минимизировать целевую функцию, но может

    попасть, как в ловушку, в неудачное решение. На рис. 5.2 показано,

    как это может иметь место в системе с единственным весом.

    Допустим, что первоначально вес взят равным значению в точке А. Если

    случайные шаги по весу малы, то любые отклонения от точки А

    увеличивают целевую функцию и будут отвергнуты. Лучшее значение веса,

    принимаемое в точке В, никогда не будет найдено, и система будет поймана

    в ловушку локальным минимумом, вместо глобального минимума в точке В.

    Если же случайные коррекции веса очень велики, то как точка А, так и

    точка В будут часто посещаться, но то же самое будет иметь место и для

    каждой другой точки. Вес будет меняться так резко, что он никогда не

    установится в желаемом минимуме. Полезная стратегия для избежания

    подобных проблем состоит в больших начальных шагах и постепенном

    уменьшении размера среднего случайного шага. Это позволяет сети

    вырываться из локальных минимумов и в то же время гарантирует

    .окончательную стабилизацию сети. Ловушки локальных минимумов

    досаждают всем алгоритмам обучения, основанным на поиске минимума,

    включая персептрон и сети обратного распространения, и представляют

    серьезную и широко распространенную трудность, которой часто не

    замечают. Стохастические методы позволяют решить эту проблему.

    Стратегия коррекции весов, вынуждающая веса принимать значение

    глобального оптимума в точке В, возможна. В качестве объясняющей

    аналогии предположим, что на рис. 5.2 изображен шарик на поверхности в

    коробке. Если коробку сильно потрясти в горизонтальном направлении, то

    шарик будет быстро перекатываться от одного края к другому. Нигде не

    задерживаясь, в каждый момент шарик будет с равной вероятностью

    находиться в любой точке поверхности. Если постепенно уменьшать

    силу встряхивания, то будет достигнуто условие, при котором шарик

    будет на короткое время «застревать» в точке В. При еще более слабом

    встряхивании шарик будет на короткое время останавливаться как в точке

    А, так и в точке В. При непрерывном уменьшении силы встряхивания

    будет достигнута критическая точка, когда сила встряхивания достаточна

    для перемещения шарика из точки А в точку В, но недостаточна для того,

    чтобы шарик мог вскарабкаться из В в А. Таким образом, окончательно

    шарик остановится в точке глобального минимума, когда амплитуда

    встряхивания уменьшится до нуля.

    [pic]

    Искусственные нейронные сети могут обучаться по существу тем же

    самым образом посредством случайной коррекции весов. Вначале делаются

    большие случайные коррекции с сохранением только тех изменений

    весов, которые уменьшают целевую функцию. Затем средний размер шага

    постепенно уменьшается, и глобальный минимум в конце концов

    достигается. Это сильно напоминает отжиг металла, поэтому для ее

    описания часто используют термин «имитация отжига». В металле,

    нагретом до температуры, превышающей его точку плавления, атомы

    Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16


    Приглашения

    09.12.2013 - 16.12.2013

    Международный конкурс хореографического искусства в рамках Международного фестиваля искусств «РОЖДЕСТВЕНСКАЯ АНДОРРА»

    09.12.2013 - 16.12.2013

    Международный конкурс хорового искусства в АНДОРРЕ «РОЖДЕСТВЕНСКАЯ АНДОРРА»




    Copyright © 2012 г.
    При использовании материалов - ссылка на сайт обязательна.