Междунар научно техн конф. Пенза : пдз, 2014. С. 171 175



Дата19.07.2016
өлшемі103.84 Kb.
#209336


Тархов Д.А., Лазовская Т.В. Об использовании методов нейронных сетей для одного жесткого уравнения первого порядка. // Проблемы информатики в образовании, управлении, экономике и технике: Сб. статей XIV Междунар. научно-техн. конф. – Пенза: ПДЗ, 2014. – С. 171 175.

УДК 004.021



Об использовании методов нейронных сетей

для одного жесткого уравнения первого порядка

Д.А. Тархов, Т.В. Лазовская



Use of the methods of Neural Networks for solving of some stiff differential first-order equation

D.A. Tarkhov, T.V. Lazovskaya



Аннотация. Рассматривается проблема решения жесткого дифференциального уравнения первого порядка. Для обобщенной параметризованной задачи применяется аппарат нейронных сетей. Анализируются результаты численных экспериментов для базисных функций двух типов и разного числа нейронов в сети. Исследуется возможность и эффективность использования дополнительных данных.

Ключевые слова: нейронные сети, дифференциальные уравнения, жесткие задачи, гибридные методы, параметризованные задачи.

Abstract. The problem of solving the stiff differential first-order equation is considered. Neural Networks are used to model a solution of a parameterized equation. The results of numerical experiments for two types of the basis functions and different counts of neurons are compared and analyzed. The possibility and the productivity of use of extra data are investigated.

Keywords: neural network, differential equations, stiff problems, hybrid methods, parameterized problems.
Рассмотрим класс обыкновенных дифференциальных уравнений, для решения которых не применимы явные вычислительные методы, известный как жесткие дифференциальные уравнения. Классическим примером такой задачи является следующее уравнение первого порядка:

приводимое, в частности, в книге [1]. При решении этой задачи явным методом Эйлера с начальным условием возникает критическое значение для шага сетки, равное 2/50, при превышении которого приближенное решение становится неустойчивым с сильными колебаниями. При этом, для меньшего шага ошибка оказывается слишком велика.

Для решения жестких задач обычно используются неявные и полуявные вычислительные методы, результатом применения которых является точечная аппроксимация решения. Мы рассмотрим данное уравнение в обобщенном виде

Применим нейросетевые методы для построения его приближенного параметризованного решения в виде некоторой функции (а не в отдельных точках как при решении методом Эйлера и иными классическими численными методами). Обобщение задачи позволяет искать ее решение сразу для всех значений параметра α, который будем считать принадлежащим интервалу, где . Поиск решения по производится на интервале .

Ищем приближенное решение этой задачи в виде выхода искусственной нейронной сети заданной архитектуры , веса которой определяются в процессе минимизации функционала ошибки

,

где .

При выборе базисных функций рассматривались два варианта:

- сигмоиды и

- асимметричные гауссианы заведомо удовлетворяющие начальному условию

Случайным образом на выбираются первых тестовых точек , которые будут перегенерироваться в процессе обучения нейронной сети. Минимизация функционала ошибки происходит с помощью алгоритма, сочетающего в себе методы облака из трех частиц и RProb.

Для исследования применения методов нейронных сетей при решении поставленной выше задачи была проведена серия численных экспериментов для каждого варианта базисных функций.

Кроме простого нейросетевого подхода, рассматривался гибридный, когда построенное нейросетевое приближение использовалось в неявном методе Адамса второго порядка решения ДУ . На каждом шаге решение уравнения заменялось формулой

Оба метода были применены при различном числе нейронов в сетях (

Также был исследован вопрос появления дополнительных данных. Чтобы не выходить за рамки задачи, в качестве таких данных использовались приближенные решения, полученные классическим методом Эйлера. С целью отразить влияние количества дополнительных данных на результат в одних экспериментах учитывалось только приближенное решение при а в других – при обоих значениях







Без доп. данных

Данные,

Данные,

сигмоиды

гауссианы

сигмоиды

гауссианы

сигмоиды

гауссианы



4,078

1,503

2,176

3,746

1,561

3,376



4,312

0,932

2,781

1,226

1,673

2,074



8,811

1,787

4,482

1,587

1,260

1,556

Таблица содержит результаты экспериментов нейросетевого моделирования решения задачи для функционала ошибки. Все эксперименты проводились при числе итераций .

Очевидно, что при отсутствии дополнительных данных с лучшей стороны себя показал вариант с базисными функциями, удовлетворяющими начальному условию (гауссианы). Привлечение же дополнительной информации повышает точность только при использовании универсальных базисных функций (сигмоиды), тогда как в случае сети с подобранными под начальное условие функциями в основном происходит, наоборот, увеличение ошибки. Особенно заметен эффект от наличия данных для сетей с высоким количеством нейронов ().

Что касается большой ошибки в графе «без данных» в случае сигмоидов, ее можно объяснить особенностями соответствующего функционала, чувствительного к резкому росту решения. Увеличение числа нейронов при этом не меняет ситуации, так же, как и использование описанного выше гибридного метода. Стоит отметить, что есть возможность добиться хороших результатов при увеличении числа итераций, но это требует значительного роста времени вычислений.

В случае универсальной нейронной сети привлечение данных для не имеет особенного эффекта, кроме некоторого логичного улучшения при , близких к , независимо от числа нейронов. Но при использовании данных для одновременно отмечается заметное повышение точности и существенное улучшение результатов при применении гибридного метода.

Как видно из таблицы, хороший эффект дает использование специальных базисных функций в сочетании с правильным числом нейронов в сети. Причем именно в этом случае гибридный метод позволяет получить значительное увеличение точности.

Уже отмеченное увеличение ошибки с привлечением дополнительных данных при малом числе нейронов в случае гауссиан, но ее уменьшение при позволяют сделать вывод о недостатке числа нейронов для обработки всей информации при .

Таким образом, нейронные сети позволяют решать жёсткие задачи без принципиального изменения алгоритма обучения. При этом важным преимуществом по сравнению с классическими методами является функциональный, а не дискретный характер решения. Широкие возможности открывает использование параметризованных сетей, позволяющих получить приближённое решение на всём рассматриваемом интервале изменения параметра.

Уточнение нейросетевого решения возможно при использовании в качестве дополнительной информации приближенных численных решений, полученных классическими методами, даже такими слабыми, как метод Эйлера. Использование гибридного алгоритма, основанного на неявном методе Адамса, эффективно для нейронных сетей, дающих достаточно точные приближения.

Описанный выше подход к решению жесткого дифференциального уравнения можно легко распространить на уравнения высшего порядка. То же самое касается и перехода от начальной задачи к краевым или решения уравнений, заданных в частных производных, и пр.

Библиографический список


  1. Хайрер Э., Ваннер Г. Решение обыкновенных дифференциальных уравнений. Жёсткие и дифференциально-алгебраические задачи. – М.: Мир, 1999.– 685 с.

  2. Тархов Д.А. Нейросетевые модели и алгоритмы. – М.: Радиотехника, 2014. – 348 с.

  3. Горбаченко В.И., Артюхина Е.В. Обучение радиально-базисных нейронных сетей при решении дифференциальных уравнений в частных производных // Нейрокомпьютеры: разработка, применение. – 2007. – № 9. – С. 150–159.

  4. Васильев А.Н., Тархов Д.А. Построение приближенных нейросетевых моделей по разнородным данным // Математическое моделирование. – 2007. – Т. 19. – №12. – С. 43–51.




Тархов Дмитрий Альбертович

Санкт-Петербургский

государственный

политехнический университет,

г. Санкт-Петербург, Россия

E-mail: dtarkhov@gmail.com


Tarkhov Dmitry Albertovich

Saint-Petersburg Politechnical

University, Saint-Petersburg, Russia


Лазовская Татьяна Валерьевна

Санкт-Петербургский

государственный

политехнический университет,

г. Санкт-Петербург, Россия

E-mail: tatianala@list.ru


Lazovskaia Tatiana Valerievna

Saint-Petersburg Politechnical

University, Saint-Petersburg,

Russia





Достарыңызбен бөлісу:




©dereksiz.org 2024
әкімшілігінің қараңыз

    Басты бет