МЕНЮ


Фестивали и конкурсы
Семинары
Издания
О МОДНТ
Приглашения
Поздравляем

НАУЧНЫЕ РАБОТЫ


  • Инновационный менеджмент
  • Инвестиции
  • ИГП
  • Земельное право
  • Журналистика
  • Жилищное право
  • Радиоэлектроника
  • Психология
  • Программирование и комп-ры
  • Предпринимательство
  • Право
  • Политология
  • Полиграфия
  • Педагогика
  • Оккультизм и уфология
  • Начертательная геометрия
  • Бухучет управленчучет
  • Биология
  • Бизнес-план
  • Безопасность жизнедеятельности
  • Банковское дело
  • АХД экпред финансы предприятий
  • Аудит
  • Ветеринария
  • Валютные отношения
  • Бухгалтерский учет и аудит
  • Ботаника и сельское хозяйство
  • Биржевое дело
  • Банковское дело
  • Астрономия
  • Архитектура
  • Арбитражный процесс
  • Безопасность жизнедеятельности
  • Административное право
  • Авиация и космонавтика
  • Кулинария
  • Наука и техника
  • Криминология
  • Криминалистика
  • Косметология
  • Коммуникации и связь
  • Кибернетика
  • Исторические личности
  • Информатика
  • Инвестиции
  • по Зоология
  • Журналистика
  • Карта сайта
  • Системное автоматизированное проектирование

    |(2 |10-4 с |4*10-4 с |9*10-4 с |16*10-4 с|25*10-4 с|36*10-4 с|

    |(3 |10-3 с |8*10-3 с |27*10-3 с|64*10-3 с|125*10-3 |216*10-3 |

    | | | | | |с |с |

    |(5 |0,1 с |3,2 с |24,3 с |1,7 мин |5,2 мин |13,0 мин |

    |2( |0,001 с |1 с |17,9 мин |12,7 дней|35,7 лет |366 |

    | | | | | | |столетий |

    |3( |0,059 с |58 мин |6,5 лет |3855 |2*108 |1,3* 1013|

    | | | | |столетий |столетий |столетий |

    Быстродействие ЭВМ 1000000 операций в секунду.

    Таблица 2.

    |Быстродействие ЭВМ |

    |106 |108 |109 |

    |(1 |100*(1 |1000*(1 |

    |(2 |10*(2 |31,6*(2 |

    |(3 |4,64*(3 |10*(3 |

    |(4 |2,5*(4 |3,9*(4 |

    |(5 |(5+6,64 |(5+9,97 |

    |(6 |(6+4,19 |(6+6,29 |

    |полиномиальных и |

    |экспоненциальных |

    |функций. |

    |Различие между |

    |типичных |

    |полиномиальными и|

    |экспоненциальными|

    |алгоритмами |

    |проявляется более|

    |убедительно, если|

    |проанализировать |

    |влияние |

    |увеличения |

    |быстродействия |

    |ЭВМ на время |

    |работы алгоритма.|

    |Таблица 2 |

    |показывает, |

    |насколько |

    |увеличится размер|

    |задач, решаемой |

    |за 1 час, если |

    |быстродействие |

    |возрастет в 100 и|

    |1000 раз. Видно, |

    |что для функции |

    |2( увеличение |

    |скорости |

    |вычислений в 1000|

    |раз приводит лишь|

    |к тому, что |

    |размер задачи, |

    |решаемой на ней |

    |за 1 час |

    |возрастет на 10. |

    |Функция временной|

    |сложности |

    |(2 |

    |(2 |

    |(2 |

    |(2 |

    |2( |

    |3( |

    ((-задачи

    Выделено 2 класса трудно решаемости:

    1. Для отыскания решения требуется экспоненциальное время.

    2. Искомое решение настолько велико, что не может быть представлено в

    виде выражение, длина которого ограничена некоторым полиномом. Эти

    задачи в курсе рассматриваться не будут.

    Первые результаты о трудно решаемых задачах были получены

    Тьюрингом. Он доказал, что некоторые задачи “неразрешимы” в том смысле, что

    вообще не существует алгоритма их решения. Некоторые задачи по теории

    автоматов, теории формальных языков и математической логики являются трудно

    решаемыми.

    ((-полная задача - это задача, к которой сводится за полиномиальной

    время любая задача из класса ((-задач. Фундаментальные исследования и

    теорию ((-задач разработал С.Кук в 1971 году. Им определено понятие

    сводимости за полиномиальное время. Если одна задача сводится за

    полиномиальное время к другой, то любой полиномиальный алгоритм - решение

    другой задачи может быть превращен в полиномиальный алгоритм первой задачи.

    Выделен класс задач распознавания свойств, которые могут быть

    решены за полиномиальное время на недетерминированном вычислительном

    устройстве. Доказано, что любая задача из класса ((-задач может быть

    сведена к задаче выполнимой за полиномиальное время.

    Существуют 6 основных классов ((-полных задач:

    1. Задачи выполнимости.

    2. Трехмерное сочетание.

    3. Вершинное покрытие.

    4. Поиск клики.

    5. Гамильтонов цикл.

    6. Разбиение.

    - внутренние параметры - характеризуют свойства элементов ;

    - выходные параметры - характеризуют свойства систем;

    - ограничения выходных параметров.

    ПРИМЕР 3.

    Применительно к операционному усилителю:

    а) переменные

    - фазовые переменные - напряжение и токи всех ветвей (рассматриваются

    как функции времени или частоты);

    б) параметры

    - внешние параметры - напряжения источников питания, параметры

    входных сигналов и нагрузки, температура окружающей среды;

    - внутренние параметры - номиналы резисторов, барьерные емкости и

    тепловые токи переходов в транзисторах, емкости конденсаторов;

    - выходные параметры - коэффициент усиления на средних частотах,

    полоса пропускания, потребляемая мощность, динамический диапазон;

    - ограничения - верхние границы допустимых значений коэффициентов

    усиления, полосы пропускания, динамического диапазона.

    Применительно к вычислительной системе:

    а) переменные

    - фазовые переменные - состояния отдельных устройств;

    б) параметры

    - внешние параметры - параметры входных источников заявок;

    - внутренние параметры - емкости запоминающих устройств,

    быстродействие процессоров, число каналов;

    - выходные параметры - производительность системы, коэффициент

    загрузки оборудования, вероятность решения поступающих задач, средние длины

    очередей заявок на обслуживание;

    - ограничения - нижние границы допустимых диапазонов значений

    производительности, коэффициентов загрузки оборудования, вероятности

    обслуживания заявок.

    При блочно-иерархическом подходе внутренние параметры k -го уровня

    являются выходными параметры (k+1) -го уровня. При многоаспектном

    рассмотрении систем, включающих физически разнородные подсистемы, роль

    внешних переменных для данной подсистемы играют фазовые переменные других

    подсистем. Они влияют на рассматриваемую подсистему.

    Внутренние параметры являются случайными величинами из-за разброса

    параметров комплектующих изделий, материалов и нестабильности условий

    изговления. Выходные параметры также имеют случайный характер следствие

    случайных значений внутренних параметров.

    4. Классификация проектных процедур.

    Классификация проектных процедур приведена в табл.1.

    ТАБЛИЦА 1. ПРОЕКТНЫЕ ПРОЦЕДУРЫ

    |АНАЛИЗ |СИНТЕЗ |

    | | |

    |Одновариантный |Параметрический |

    |Многовариантный |Структурный |

    | | |

    |Статики |Расчет внутренних |

    |Чувствительности |параметров |

    | | |

    |Динамики |Оптимизация параметров |

    |Статистический | |

    | |Оптимизация допусков |

    |В частной области | |

    |Расчет зависимостей |Оптимизация технических |

    |выходных параметров |требований |

    |Стационарных режимов от | |

    |внутренних и внешних | |

    |параметров | |

    |Устойчивости | |

    В процедурах анализа оцениваются варианты построения объектов, а в

    процедурах синтеза - разрабатываются.

    Одновариантный анализ заключается в определении вектора выходных

    параметров Y при заданных:

    - структуре системы,

    - значениях векторов параметров элементов X,

    - значениях внешних параметров Q.

    Структура системы задана, если заданы перечень типов элементов и способ

    их связи друг с другом в составе системы. По известной структуре и

    значениям X и Q могут быть созданы физическая или математическая модели и

    по результатам исследования модели оценены значения gпараметров вектора Y.

    Приемлемость полученных значений выходных параметров из вектора Y

    определяется путем сопоставления их со значениями параметров из вектора T,

    указанных в техническом задании (ТЗ).

    Требуемое по ТЗ соотношение между значениями параметров yi и ti , i=1,n

    называют условием работоспособности по параметру yi.

    Условия работоспособности могут быть представлены в следующем виде:

    yi = t i, (2)

    tнi 0 - параметр. Вычисляя производную в этом выражении, для выходного

    слоя нейронов получим:

    [pic].

    Затем последовательно вычисляются изменения коэффициентов на предшествующих

    слоях.

    Такой способ модификации связей в сети позволяет значительно сократить

    время, необходимое для обучения сети. Вообще , время обучения

    существенно зависит от требуемой сложности разбиения

    пространства возможных входов сети на подклассы ( например, если построить

    несвязные области ).

    3.2. ОБУЧЕНИЕ БЕЗ СУПЕРВИЗОРА

    Подобный подход применим к нейронным сетям Гроссберга-Карпентера и

    Кохонена. Такие сети имеют другое название - самоорганизующиеся сети.

    Процесс их обучения выглядит как процесс возникновения определенных свойств

    при взаимодействии системы с внешним миром. Сети такого типа наиболее

    близки по своим свойствам к неравновесным физическим, химическим или

    биологическим системам, в которых возможно образование диссипативных

    структур. Распознание образов и обучение, по-видимому, тесно связаны с

    вопросом о коллективном поведении систем, включающим множество частиц.

    Сущность обучения без супервизора можно пояснить следующим образом.

    Для этого рассмотрим динамическую систему, элементы которой ( нейроны)

    взаимодействуют между собой и термостатом.

    Состояние i-го нейрона будем описывать непрерывной переменной m (t)

    ( t - время ), изменяющейся в интервале - m = < [pic] > [pic] , < [pic]> =

    < [pic]> = 0 ,

    где скобки обозначают усреднение по времени.

    Уравнения (9) и (10) описывают существенно различные физические

    процессы, которые в рассматриваемом контексте можно назвать "обучением"

    и "распознаванием образов". Рассмотрим первое из них. Обучение состоит в

    том, что в (9) включается сильное внешнее поле, действующее в течение

    времени t . В результате того вектор m(t) принимает стационарное значение

    fi , соответствующее "образу" с компонентами [pic] m[pic] . После

    "обучения" элементы матрицы [pic] , со временем в соответствии с

    уравнением (10), получат приращение [pic] ( при этом предполагается, что

    t значительно больше времени релаксации на внешнем поле вектора m к

    своему стационарному значению fi ). Процедуру обучения можно повторить

    многократно, используя образы fi[pic] , s=1,...,n. Считая, что до начала

    обучения [pic] = 0, после окончания этого процесса получим

    [pic] ,

    где коэффициенты nu[pic] зависят от длительности обучения. Таким образом,

    уравнения (9) и (10) описывают процесс запоминания поступающей в

    систему информации в виде матриц связей хеббовского вида.

    Ранее предполагалось, что до начала обучения нейронная сеть не

    содержит никакой информации, [pic] = 0. Можно рассмотреть противоположный

    случай, когда до начала обучения нейронная сеть имеет большое число

    устойчивых состояний. Предполагается, что доминируют глубокие

    энергетические минимумы, которые могут образовывать структуру дерева.

    Процедура обучения должна приводить к селекции образов . В процессе

    обучения заучиваемый образ задается в качестве начального состояния сети

    и эволюционирует к некоторому аттрактору, энергия которого уменьшается за

    счет синоптических изменений ( в частности, если время релаксации меньше

    времени обучения), а область притяжения смещается и увеличивается за счет

    присоединения соседних областей. Таким образом, процесс селекции

    отличается от режима обучения, рассмотренного ранее тем что используется

    внешнее поле.

    ОСНОВНЫЕ ФУНКЦИИ НЕЙРОННЫХ СЕТЕЙ

    АССОЦИАТИВНАЯ ПАМЯТЬ И КАТЕГОРИЗАЦИЯ

    Под ассоциативной памятью ( или памятью, адресуемой по содержанию)

    понимается способность системы нейронов, например, мозга млекопитающих

    восстанавливать точную информацию по некоторой

    ее части. К этому определению близок процесс категоризации - отнесение

    предъявленного объекта к одному из классов. Многие из предложенных в

    настоящее время сетей способны фактически осуществлять эти функции. При

    этом критерии, по которым осуществляется отнесение объектов к тому или

    иному классу ( распознавание) , различны в разных моделях.

    Рассмотрим в качестве примера модель Хопфилда.

    Пусть сначала n=1 b и в матрице Т записан всего один образ fi[pic] .

    Скалярноe произведение произвольного вектора m и fi[pic] задается

    выражением (fi[pic] , m ) = N - 2 m, где m - хеммингово расстояние

    между векторами m и fi[pic], равное числу элементов, отличающих эти

    векторы. Подставляя это выражение в ( 7 ), получим следующее выражение для

    энергии:

    [pic] .

    Из данного выражения видно, что Е принимает минимальное значение при

    m=0. При этом вектор М совпадает с записанным образом либо, когда m=N ( в

    этом случае m совпадает с "негативом" ). Поэтому эволюция любого начального

    состояния системы заканчивается в состояниях m =[pic] fi[pic] .

    В случае n = 2 выражение для энергии имеет вид

    [pic] .

    Здесь N[pic] - число позиций, в которых компоненты записанных в Т

    векторов совпадают: fi[pic]= fi[pic] , N- число несовпадающих компонент

    этих векторов, для которых fi[pic]=- fi[pic] , m[pic] и m[pic] - число

    компонент вектора m в первой и во второй группе нейронов соответственно,

    отличающих m от fi[pic] . Из последнего выражения видно, что система

    нейронов имеет четыре устойчивых состояния, отвечающих m [pic]= 0,N[pic] ,

    m[pic] =0,N[pic] . При этом они совпадают с одним из векторов [pic]

    fi[pic],=[pic] fi[pic].

    Функцию категоризации могут осуществлять нейронные сети других типов,

    при этом каждая из сетей делает это по разному. Так, если сеть Хопфилда

    относит к одному устойчивому вектору все стимулы, попавшие в область его

    зоны притяжения, то сеть Хемминга относит каждый входной вектор к

    ближайшему вектору, записанному в память.

    ВЫРАБОТКА ПРОТОТИПА И ОБОБЩЕНИЕ

    Различные типы нейронных сетей допускают возможность их обучения для

    выполнения алгоритмов обработки входной информации. При этом в обучающей

    выборке может не содержаться полного описания

    предлагаемых алгоритмов.

    Рассмотрим два примера:

    - выработка прототипа в модели Хопфилда ( образование устойчивого образа в

    памяти, не содержавшегося среди обучаемых векторов),

    - обобщение по индукции.

    При увеличении числа образов в памяти минимальные значения энергии,

    вычисленные с помощью выражения (7) и соответствующие различным

    записанным векторам, могут начать сливаться.

    Рассмотрим группу образов fi[pic] ( s=1,...,n) , получающихся при

    небольших случайных искажениях del [pic] некоторого вектора fi[pic] .

    При изменении вектора fi[pic] на величину del происходит изменение

    энергии, соответствующей этому вектору, на величину del E.

    При [pic]и случайном искажении исходного вектора fi [pic] при

    построении группы образов может выполняться неравенство del E [pic]0 и

    следовательно, исходный вектор отвечает минимуму энергии системы. В

    психологии образ, аналогичный fi[pic] ( т.е. являющийся в определенном

    смысле усреднением некоторого числа образов и остающийся в памяти человека

    наряду с действительно предъявлявшимися образами) , получил название

    прототипа.

    Сущность обобщения по индукции можно понять на следующем примере.

    Предположим, что множество входов сети разделено на две части, кодирующие

    соответственно два "образа". Например, это могут быть два числа либо

    два изображения предметов. Выходной слой персептрона пусть содержит один

    бинарный нейрон. При обучении будем стремиться к тому , чтобы на выходе

    сети была 1, если образы на входе совпадают и 0 , в противном случае.

    Установлено, что трехслойная сеть может быть обучена по указанному правилу,

    и способна определять совпадение образов на входе ( или симметрию

    входного вектора, что в данном случае одно и то же). Таким образом, сеть

    по индукции обучается устанавливать совпадение двух

    векторов, хотя при обучении явное определение понятия совпадение не

    приводилось. По этому же принципу можно обучить нейронную сеть складывать

    числа.

    ЗАКЛЮЧЕНИЕ

    Практические процедуры обучения нейронных сетей часто сталкиваются с

    невозможностью добиться от сети желаемого поведения. Ранее упоминались

    некоторые проблемы такого рода:

    - отсутствие сходимости процесса обучения персептронов,

    - ложная память в модели Хопфилда.

    Причины этого могут разделены на две группы.

    1. Значительное время обучения нейронных сетей в сложных случаях.

    2. Принципиальная невозможность получения необходимой структуры

    фазового пространства в заданной модели нейронной сети.

    Область приложения нейронных сетей значительна и расширяется.

    Этот процесс идет по ряду направлений. К их числу можно отнести

    следующие:

    - поиск новых нелинейных элементов , которые могли бы реализовывать

    сложное коллективное поведение в ансамбле,

    - разработка новых архитектур нейронных сетей, перспективных с точки

    зрения их реализации на электронной, оптической и оптоэлектронной

    элементной базе,

    - поиск областей приложения нейронных сетей в системах управления,

    робототехнике, системах обработки изображений, распознавания речи.

    ЛЕКЦИЯ (3

    СИСТЕМА АВТОМАТИЧЕСКОГО ВВОДА ИНФОРМАЦИИ В ЭВМ

    1. Необходимость создания системы автоматического ввода

    Cоздатели САПР помимо выявления множества задач, решаемых системой, и

    Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9


    Приглашения

    09.12.2013 - 16.12.2013

    Международный конкурс хореографического искусства в рамках Международного фестиваля искусств «РОЖДЕСТВЕНСКАЯ АНДОРРА»

    09.12.2013 - 16.12.2013

    Международный конкурс хорового искусства в АНДОРРЕ «РОЖДЕСТВЕНСКАЯ АНДОРРА»




    Copyright © 2012 г.
    При использовании материалов - ссылка на сайт обязательна.