Документ взят из кэша поисковой машины. Адрес оригинального документа : http://wasp.phys.msu.ru/forum/lofiversion/index.php?t17205.html
Дата изменения: Unknown
Дата индексирования: Mon Apr 11 15:21:54 2016
Кодировка: Windows-1251
Студенческий форум Физфака МГУ > Обучение нейронной сети
Помощь - Поиск - Пользователи - Календарь
Полная версия этой страницы: Обучение нейронной сети
Студенческий форум Физфака МГУ > Наука физика > Есть проблема
MOZGit
Насколько мне известно, обучение нейронной сети происходит при помощи минимизации функции ошибок. Где функция ошибок определяется из разности сигнала сети и желаемого сигнала. Как обучать один нейрон при этом абсолютно понятно. Вопрос в том, как обучить (выставить оптимальные веса) сети со скрытыми слоями. Ведь мы не знаем, какой отклик желателен для нейрона в скрытом слое.
Спасибо!
DeepKeeper
2 MOZGit
ну, принципиально (на мой взгляд, может я что забыл) есть два эффективных методов:

1) заброс случайных стартовых параметров и их варьирование по методике многомерной оптимизации есть довольно много алгоритмов - дерзайте =) (смысл применение нейросети при этом почти теряется) (общий принцип на пальцах - считаем многомерные вариации по куче параметров сразу и минимизируем функцию ошибок)

2) Применение генетических алгоритмов со случайными начальными и последующим отбором-эволюцией (ресурсоемко, но эффективно), можно дополнительно применять идеи метода 1)

плюс стоит обратить внимание на: http://en.wikipedia.org/wiki/Inverse_distance_weighting
плюс изучить вопросы многомерной интерполяции и аппроксимации =)
Andre
2 DeepKeeper
Нет. Есть специализированный алгоритм.

2 MOZGit
Илья, эта задача решается алгоритмом обратного распространения ошибки. Описан в любом руководстве по нейросетям. Можно взглянуть здесь; в английской wiki есть ссылочки, которые, думаю, пригодятся тебе.
MOZGit
мне просто не понятне тогда смысл скрытых слоев. Ведь весовые коэффициенты в этим случае будут совершенно одинаковы для любого нейрона скрытого слоя. Нет раззве? Ведь система у нас симметричная получается.
Andre
2 MOZGit
Обычно веса инициализируются случайными числами, так что нейроны получаются (и остаются) различными. Если нейроны скрытого слоя инициализировать идентичными наборами весов, то, насколько я вижу, в процессе обучения они будут оставаться тождественными. Не знаю, как соотнести это с интерпретацией алгоритма обратного распространения ошибки в терминах градиентного спуска. Но все же т.к. обычно веса различны, такой проблемы не возникает.
ismolnik
Читать умею, учусь писать! Как быть с написанием формулы? Новичок
Для просмотра полной версии этой страницы, пожалуйста, пройдите по ссылке.
Русская версия IP.Board © 2001-2016 IPS, Inc.