Очень доброжелательный и компетентный автор. Всегда был на связи, все разъяснил, предоставил несколько вариантов программы. Рекомендую.
Подробнее о работе
Гарантия сервиса Автор24
Уникальность не ниже 50%
«Задачи распознавания образов»
1. Краткое изложение основных теоретических и методических аспектов работы
1.1. Классификация чисел
В 1943 году американские учёные Маккаллок и Питс предложили математическую модель нейрона мозга человека, назвав её математическим нейроном. Так же как и биологический нейрон мозга, математический нейрон имеет несколько входов и один выход. Кроме того, он может существовать в возбуждённом и невозбуждённом состояниях, причём переход в возбуждённое состояние зависит от величины поступающих к нему сигналов и сил синаптических связей. Таким образом, математический нейрон весьма правдоподобно имитирует структуру и свойства своего прототипа – биологического нейрона мозга. На этом основании Маккаллок и Питс высказали весьма смелое предположение, которое впоследствии легло в основу современной нейроинформатики. Они предположили, что если математические нейроны связать между собой проводниками электрического тока, имитирующими нервные волокна, то такой искусственный мозг будет способен решать интеллектуальные задачи, подобно тому, как это делает естественный человеческий мозг.
Идея Маккаллока-Питса была воплощена в жизнь в 1958 году американским учёным Фрэнком Розенблаттом, также считающимся основателем нейроинформатики. Сначала он создал компьютерную программу для IBM-794, эмулирующую деятельность математических нейронов. Это была первая нейронная сеть или сокращённо – нейросеть. Она была названа персептроном от английского слова perception – осознание.
Затем, спустя два года, Розенблатт смонтировал электронное устройство, в котором функции математических нейронов выполняли отдельные электросхемы, работающие на электронных лампах. Это был первый нейрокомпьютер, который успешно решал сложнейшую интеллектуальную задачу – распознавал буквы латинского алфавита, изображенные на карточках, подносимых к его считывающему устройству
Многослойный перцептрон — частный случай перцептрона Розенблатта, в котором один алгоритм обратного распространения ошибки обучает все слои. Название по историческим причинам не отражает особенности данного вида перцептрона, то есть не связано с тем, что в нём имеется несколько слоёв (так как несколько слоёв было и у перцептрона Розенблатта). Особенностью является наличие более чем одного обучаемого слоя (как правило — два или три). Необходимость в большом количестве обучаемых слоёв отпадает, так как теоретически единственного скрытого слоя достаточно, чтобы перекодировать входное представление таким образом, чтобы получить линейную разделимость для выходного представления. Существует предположение, что, используя большее число слоёв, можно уменьшить число элементов в них, то есть суммарное число элементов в слоях будет меньше, чем если использовать один скрытый слой. Это предположение успешно используется в технологиях глубокого обучения и имеет обоснование
Рис. 5. Графическое изображение функции-ошибки персептрона εε(wij) в трёхмерной системе координат w11, w12, ε.
Таким образом, если раньше говорили, что персептрон обучают методом «поощрения-наказания», то теперь стали говорить, что задача обучения персептрона – это задача оптимизации (минимизации) персептронной ошибки (погрешности).
Существует множество методов решения оптимизационных задач. Наиболее простым методом является перебор весовых коэффициентов wij с последующими вычислениями и сравнениями между собой соответствующих этим коэффициентам значений функции ε. Более эффективен метод градиентного спуска, согласно которому изменение (коррекция) каждого весового коэффициента Δwij производится в сторону, противоположную градиенту функции ε. Градиент функции является очень важным математическим понятием. Градиент функции εε(wij) представляет собой вектор, проекциями которого на оси координат являются производные от функции ε по этим координатам (их обозначают ε/wij), и что градиент функции всегда направлен в сторону её наибольшего возрастания. Поскольку наша задача состоит в отыскании минимума функции εε(wij), то необходимо опускаться по поверхности ошибок, что обеспечивается движением в сторону, противоположную градиенту этой функции. Отсюда и упомянутое выше название – метод градиентного спуска.
Движение в сторону, противоположную градиенту (т.е. противоположную направлению возрастания функции), будет осуществляться, если на каждой итерации к координатам текущей точки wij будем добавлять величину, прямо пропорциональную производной по координате wij, взятую с противоположным знаком:
,
0
Не подошла эта работа?
Закажи новую работу, сделанную по твоим требованиям
«Задачи распознавания образов»
1. Краткое изложение основных теоретических и методических аспектов работы
1.1. Классификация чисел
В 1943 году американские учёные Маккаллок и Питс предложили математическую модель нейрона мозга человека, назвав её математическим нейроном. Так же как и биологический нейрон мозга, математический нейрон имеет несколько входов и один выход. Кроме того, он может существовать в возбуждённом и невозбуждённом состояниях, причём переход в возбуждённое состояние зависит от величины поступающих к нему сигналов и сил синаптических связей. Таким образом, математический нейрон весьма правдоподобно имитирует структуру и свойства своего прототипа – биологического нейрона мозга. На этом основании Маккаллок и Питс высказали весьма смелое предположение, которое впоследствии легло в основу современной нейроинформатики. Они предположили, что если математические нейроны связать между собой проводниками электрического тока, имитирующими нервные волокна, то такой искусственный мозг будет способен решать интеллектуальные задачи, подобно тому, как это делает естественный человеческий мозг.
Идея Маккаллока-Питса была воплощена в жизнь в 1958 году американским учёным Фрэнком Розенблаттом, также считающимся основателем нейроинформатики. Сначала он создал компьютерную программу для IBM-794, эмулирующую деятельность математических нейронов. Это была первая нейронная сеть или сокращённо – нейросеть. Она была названа персептроном от английского слова perception – осознание.
Затем, спустя два года, Розенблатт смонтировал электронное устройство, в котором функции математических нейронов выполняли отдельные электросхемы, работающие на электронных лампах. Это был первый нейрокомпьютер, который успешно решал сложнейшую интеллектуальную задачу – распознавал буквы латинского алфавита, изображенные на карточках, подносимых к его считывающему устройству
Многослойный перцептрон — частный случай перцептрона Розенблатта, в котором один алгоритм обратного распространения ошибки обучает все слои. Название по историческим причинам не отражает особенности данного вида перцептрона, то есть не связано с тем, что в нём имеется несколько слоёв (так как несколько слоёв было и у перцептрона Розенблатта). Особенностью является наличие более чем одного обучаемого слоя (как правило — два или три). Необходимость в большом количестве обучаемых слоёв отпадает, так как теоретически единственного скрытого слоя достаточно, чтобы перекодировать входное представление таким образом, чтобы получить линейную разделимость для выходного представления. Существует предположение, что, используя большее число слоёв, можно уменьшить число элементов в них, то есть суммарное число элементов в слоях будет меньше, чем если использовать один скрытый слой. Это предположение успешно используется в технологиях глубокого обучения и имеет обоснование
Рис. 5. Графическое изображение функции-ошибки персептрона εε(wij) в трёхмерной системе координат w11, w12, ε.
Таким образом, если раньше говорили, что персептрон обучают методом «поощрения-наказания», то теперь стали говорить, что задача обучения персептрона – это задача оптимизации (минимизации) персептронной ошибки (погрешности).
Существует множество методов решения оптимизационных задач. Наиболее простым методом является перебор весовых коэффициентов wij с последующими вычислениями и сравнениями между собой соответствующих этим коэффициентам значений функции ε. Более эффективен метод градиентного спуска, согласно которому изменение (коррекция) каждого весового коэффициента Δwij производится в сторону, противоположную градиенту функции ε. Градиент функции является очень важным математическим понятием. Градиент функции εε(wij) представляет собой вектор, проекциями которого на оси координат являются производные от функции ε по этим координатам (их обозначают ε/wij), и что градиент функции всегда направлен в сторону её наибольшего возрастания. Поскольку наша задача состоит в отыскании минимума функции εε(wij), то необходимо опускаться по поверхности ошибок, что обеспечивается движением в сторону, противоположную градиенту этой функции. Отсюда и упомянутое выше название – метод градиентного спуска.
Движение в сторону, противоположную градиенту (т.е. противоположную направлению возрастания функции), будет осуществляться, если на каждой итерации к координатам текущей точки wij будем добавлять величину, прямо пропорциональную производной по координате wij, взятую с противоположным знаком:
,
0
Купить эту работу vs Заказать новую | ||
---|---|---|
0 раз | Куплено | Выполняется индивидуально |
Не менее 40%
Исполнитель, загружая работу в «Банк готовых работ» подтверждает, что
уровень оригинальности
работы составляет не менее 40%
|
Уникальность | Выполняется индивидуально |
Сразу в личном кабинете | Доступность | Срок 1—6 дней |
660 ₽ | Цена | от 500 ₽ |
Не подошла эта работа?
В нашей базе 150501 Курсовая работа — поможем найти подходящую