Искуственные нейронные сети. Читальный зал iTempUniversity статья из журнала “Молодой ученый”

0:21
строим то есть заниматься анализом и
0:24
задача выходного слоя представить
0:27
информацию в конечном виде каждый узел
0:30
это искусственный нейрон или
0:32
элементарный процессор
0:36
структуру нейрона показывает что у
0:38
каждого нейрона есть входы от других
0:41
нейронов в vesa для каждого входа и
0:46
сам нейрон фактически это сумматор его
0:50
задача просуммировать каждый вход с их
0:53
произведениям навеса и после этого
0:57
срабатывает функция активации
0:59
так называемая передаточная функция
1:02
после чего выход нейрона подается на
1:06
другие входы вся суть нейронной сети
1:09
заключается в весах и передаточной
1:12
функции для решения какого-либо
1:14
какой-либо прикладной задачи с помощью
1:17
нейронной сети необходимо во-первых
1:21
определить тип решаемой задачи во вторых
1:24
выявить входные и выходные данные в
1:26
задачи во вторых а
1:29
в третьих подобрать топологию нейронной
1:32
сети четвертых нормализовать данные под
1:35
выбранную нейросеть в пятых
1:38
экспериментально подобрать параметры
1:41
в шестых обучить нейронную сеть и на
1:45
последнем этапе необходимо проверить
1:47
качество работы нейронной сети
1:49
проанализировать количество ошибок на
1:52
общее число проверок как правило после
1:55
одной итерации
1:56
такого алгоритма полученная сеть не
1:58
удовлетворяет всем требованиям задачи
2:01
обычно необходимо около десяти таких
2:04
операций из топологии нейронных сетей
2:07
выделяют сети прямого распространения
2:09
fit форвард ради
2:12
идеально базисные функции
2:15
рекурентные нейросети свёрточная сети
2:20
скобочках никак не трон
2:23
затрудняюсь сказать что это
2:24
самоорганизующаяся карта кофи аннана а
2:27
также адаптивная резонансная теория в
2:31
сетях fit форвард входная inформат
2:34
поднаем формация слой за слоем
2:37
обрабатывается и отдается на выход в
2:40
сетях обратного распространения входная
2:42
информация также слой за слоем
2:44
обрабатывается новых 1 слой отправляется
2:48
снова на вход сегодня радиально базисные
2:52
функции адаптивной резонансная теория в
2:54
чистом виде уже не применяются это дань
2:57
истории в частности радиальная сеть не
3:00
удовлетворяет стандартам качества она
3:03
выдает в среднем 72 процента верных
3:06
исходов
3:07
конечно есть универсальные нейронные
3:10
сети многослойный персептрон
3:12
который можно применять практически для
3:14
любых типов задач но как у всякого не
3:18
универсального инструмента
3:19
качество его работы на тех или иных
3:22
задачах колеблется поэтому лучше
3:25
выбирать нейронную сеть под конкретную
3:27
задачу
3:28
самая важная часть в нейросети это
3:31
обучение
3:32
фактически это много параметрическая
3:35
задача нелинейной параметризации
3:38
технически обучения заключается в
3:41
нахождении коэффициентов
3:44
связи между нейронами
3:46
обучение бывает с учителем когда пара
3:50
давая информацию на вход нейронной сети
3:52
мы как разработчик четко указываем что
3:55
определенная информация соответствует
3:57
конкретному выходу и
4:00
самообучение когда нейронная сеть сама
4:02
делает выводы по той информации которую
4:05
мы подали основные задачи для решения
4:07
которых используются нейронные сети это
4:10
распознавание образов текстов звуков
4:13
изображений прогнозирования нейросетевой
4:17
сжатие данных попытка создания и джеффом
4:21
хотим сам принятие решений и управления
4:25
автомобили роботы и ассоциативная память
4:29
показательным примером является
4:31
московская компания abi ее продукт fine
4:34
reader который умеет читать текст с
4:36
изображения например найти текст нас к
4:39
сканированное изображение
4:41
при распознавание текста до поступления
4:44
на вход нейронной сети информация
4:47
обрабатывается специальным графическим
4:49
интерфейсом который выделяет отдельный
4:51
символ полученное изображение отдельного
4:54
символа избавляют от шума и только после
4:57
этого передают на вход нейронной сети
4:59
подобные сети достаточно сложны и
5:02
требовательные
5:04
к вычислительным ресурсам например для
5:07
распознавания древнеегипетских
5:09
иероглифов
5:10
нейросеть обучалась в течение недели
5:13
беспрерывной работы и насчитывала более
5:16
700 тысяч нейронов для распознавания
5:19
образов обычно используют свёрточная
5:22
сети как сеть линетт 5 франции неё как
5:27
nitrome в японии а для распознавания
5:29
видео и аудио
5:31
потока видео аудио потока рекуррентные
5:35
сети обучение происходит только с
5:38
учителем когда вы четко даем понять
5:40
нейронной сети что это изображение
5:42
человека машины буквы слова и так далее
5:45
для решения задач прогнозирования
5:48
использует сети
5:51
грн н р м л и сеть эльмана сеть фильма
5:55
на самые популярные качественной по
5:58
работе это сеть g рнн которая дает то же
6:02
качество распознавания что и обычные
6:04
регрессионный анализ и математики но при
6:07
этом менее требовательна к входным
6:09
данным для решения задач связанных
6:12
ассоциативной памятью использует сеть
6:14
коско
6:15
двунаправленная ассоциативная память
6:18
если ставить вопрос о возможности
6:20
создания искусственного интеллекта по
6:22
подобию человеческого мозга с
6:24
использованием нейронных сетей
6:26
необходимо понимать что теоретически это
6:29
возможно но потребуется колоссальные
6:31
вычислительные ресурсы к тому же
6:33
алгоритмов для решения таких
6:34
параллельных задач еще не создана
6:37
подводя так необходимо ответить что для
6:40
решения многих задач например
6:42
распознавания образов существует решение
6:44
аналоги не использующие нейронные сети
6:47
это во-первых структурные методы
6:50
распознавания практически по пиксель на
6:52
изучение картинок во вторых
6:55
синтаксические методы распознавания
6:57
когда изображение той же буквы
6:59
разбивается на элементарные черные точки
7:02
и потом из набора черточек формируется
7:05
буква в третьих векторное квантования а
7:08
также байесовский классификатор
7:10
построенный на применение теоремы байеса
7:13
четвертых машина опорных векторов но у
7:16
всех вышеперечисленных способов качество
7:19
решения задачи ниже 72 процентов у
7:21
нейронных сетей в частности сверхточных
7:24
качество распознавания 86 процентов но
7:28
есть и методы работы работающий на у на
7:30
наравне с нейросетями это такие
7:34
алгоритмы как busting рандомизированы
7:36
решающий лес и машина опорных векторов
7:40
таким образом искусственные нейронные
7:42
сети представляют очень гибкий аппарат
7:44
для решения широкого спектра задач от
7:47
обучения игрового искусственного
7:49
интеллекта до прогнозирования поведения
7:51
экономики отдельного региона или целого
7:54
государства
7:55
качество решения задачи каждый раз
7:58
зависит от объема и качества исходных
8:00
данных
8:01
первая статья закончилась
8:05
вторая статья
8:13
язык