Документ взят из кэша поисковой машины. Адрес оригинального документа : http://lnfm1.sai.msu.ru/grav/russian/lecture/mon/6b.doc
Дата изменения: Sat Dec 20 13:09:16 2003
Дата индексирования: Mon Oct 1 23:35:47 2012
Кодировка: Windows-1251

[pic].
Пусть [pic]. Теперь уравнение принимает вид
[pic].
Вы?исление контрольных сумм не встре?ает затруднений:
[pic].
Процедуру составления нормальных уравнений, решения и вы?исления
весовых коэффициентов можно изобразить следующей схемой, в которой столбцы
поме?ены малыми латинскими буквами, а строки пронумерованы:

схема Гаусса

| | a | b | c | d | e | f | g | h | i |
| 1 | | | | | | | 1 | | |
| |[pic] |[pic] |[pic] |[pic] |[pic] |[pic] | | | |
| | | | | | | | | | |
| 2 | | | | | | | 0 | | |
| |[pic] |[pic] |[pic] |[pic] |[pic] |[pic] | | | |
| | | | | | | | | | |
| 3 | | | | | | | 0 | | |
| |[pic] |[pic] |[pic] |[pic] |[pic] |[pic] | | | |
| | | | | | | | | | |
| 4 | 1 | [pic]| | | | | | | |
| | | |[pic] |[pic] |[pic] |[pic] |[pic] | | |
| | | | | | | | | | |
| 5 | | | | | | | * | 1 | |
| | |[pic] |[pic] |[pic] |[pic] |[pic] | | | |
| | | | | | | | | | |
| 6 | | | | | | | * | 0 | |
| | |[pic] |[pic] |[pic] |[pic] |[pic] | | | |
| | | | | | | | | | |
| 7 | | 1 | | | | | * | [pic]| |
| | | |[pic] |[pic] |[pic] |[pic] | | | |
| | | | | | | | | | |
| 8 | | | | | | | * | * | 1 |
| | | |[pic] |[pic] |[pic] |[pic] | | | |
| | | | | | | | | | |
| 9 | | | 1 | [pic]| [pic]| | * | * | [pic]|
| | | | | | |[pic] | | | |
| | | | | | | | | | |

Комментарии к схеме Гаусса.
1,2,3 строки.
Столбцы "a","b","c","d" занимают нормальные уравнения, полу?енные из
исходных уравнений перемножением соответствующих столбцов и суммированием
произведений.
Столбец "e" вы?ислен по той же самой схеме: перемножением sk с ak, bk
и ck: [pic], [pic], [pic].
Контролем правильности вы?ислений являются суммы столбца "f" :

[pic],
[pic],
[pic].
Столбцы "g","h","i" предназна?ены для вы?исления весовых
коэффициентов [pic].
4 строка
есть уравнение исклю?ения (элиминационное уравнение). Оно полу?ено
путем деления первого нормального уравнения на первый коэффициент. Этой
процедуре подвергаются все ?исла, стоящие в первой строке, в том ?исле
[pic] (столбец "е") и 1 (столбец "g"), исклю?ая столбец "f", который
выполняет контрольные функции
[pic].
5,6 строки
занимает вторая промежуто?ная система нормальных уравнений,
полу?енная после исклю?ения неизвестного х:
[pic],
[pic].
Исклю?ение неизвестного х выполняется следующим образом. Уравнение
исклю?ения нужно умножить на коэффициент при х и вы?есть из нормального
уравнения:
[pic], [pic],
[pic], [pic].
То?но также поступают со всеми столбцами схемы, за исклю?ением
столбца "f", который служит контролем правильности выкладок:
[pic],
[pic].
Полу?енная система двух уравнений с двумя неизвестными является системой
нормальных уравнений со всеми ее свойствами. Во-первых, ее матрица
симметри?еская [pic], поэтому не все коэффициенты этого уравнения нужно
вы?ислять. Многие вы?ислители их даже не выписывают. Во-вторых, эта матрица
является весовой по отношению к неизвестным y и z. Поэтому вы?исления можно
не доводить до конца, а на определенном этапе воспользоваться, например,
методом определителей.
7 строка.
Второе элиминационное уравнение. Снова первое нормальное уравнение
(промежуто?ной системы) разделим на первый коэффициент, стоящий перед
неизвестной, подлежащей исклю?ению на втором этапе вы?ислений.


8 строка.
Умножая второе элиминационное уравнение на коэффициент [pic] (второе
нормальное уравнение) и вы?итая из уравнения строки (6), полу?им снова
"систему" нормальных уравнений без неизвестных y:
[pic].
Правая ?асть этого уравнения равна
[pic].
Столбец "е" дает [pic].
Вы?исления верны, если [pic].
Заполняется последний столбец "i" схемы: ставится о?ередная единица.
9 строка -
новое элиминационное уравнение, которое по сути есть решение
нормального уравнения (8), которое содержит лишь одно неизвестное
[pic].
Соблюдая правила, мы должны вы?ислить все ?исла строки 9, в том ?исле и
для суммового контроля.
Неизвестные вы?исляют из элиминационных уравнений:
[pic],
[pic],
[pic].
Для вы?исления весовых коэффицентов используются столбцы "g","h","i".
Существует следующее правило: для вы?исления q необходимо перемножить
?исла, стоящие в строках первых нормальных уравнений с ?ислами
элиминационных строк и результаты сложить.
[pic] - столбец "g",
[pic] - столбец "h",
[pic] - столбец "i".
Результат вы?ислений записывают так:
[pic],
[pic],
[pic].
Численный пример решения системы линейных уравнений по схеме Гаусса,
который мы приводим ниже, повторяет тот же пример, которым мы
иллюстрировали метод определителей.
| x | y | z | l | s | | |
| | | | | |[pic] |[pic] |
| 1 | 0 | 2 | 7 | 10 | 6.8| +0.2 |
| 0 | 3 | -2 | 1 | 2 | 0.8| +0.2 |
| -1 | 2 | 0 | 3 | 4 | 3.9| -0.9 |
| 2 | -1 | 1 | 2 | 4 | 2.2| -0.2 |
| 3 | 2 | -2 | 1 | 4 | 0.6| +0.4 |
| -2 | -1 | 3 | 6 | 6 | 5.4| +0.6 |
| 0 | 3 | -2 | 1 | 2 | 0.8| +0.2 |
| 4 | 1 | 0 | 5 | 10 | 5.2| -0.2 |
| | | | | | | +0.3 |
| | | | | |[pic] | |
| | | | | | | 1.53|
| | | | | |[pic] | |


[pic]

| | | | | | | | | |
| 35 | 8 | -8| 19 | 54 | 54 | 1 | | |
| 8 | 29 | -20| 11 | 28 | 28 | 0 | | |
| -8 | -20 | 26| 28 | 26 | 26 | 0 | | |
| 1 | 0.228| | 0.543| | | | | |
| | |-0.228| |1.543 |1.543 |0.0286| | |
| | | | | | | | | |
| | | -18.2| 6.7| 15.7| 15.7| | 1 | |
| |27.2 | | | | |-0.229| | |
| | | 24.2| 32.3| 38.3| 38.3| | 0 | |
| |-18.2 | | | | |0.229 | | |
| | 1 | | 0.246| | |-0.008| | |
| | |-0.669| |0.577 |0.577 |4 |0.0368| |
| | | | | | | | | |
| | | 12.0| 36.8| 48.8| 48.8| | 0.670| 1 |
| | | | | | |0.0761| | |
| | | 1 | | 4.07| 4.07| | | |
| | | |3.07 | | |0.0063|0.0558|0.0833|
| |3.07 | | | | | | | |
|z= | | | | | | | | |
| |2.30 | | | | | 0.031| 0.074| 0.083|
|y= | | | | |q | | | |
| |0.72 | | | | | 0.097| 0.150| 0.158|
|x= | | | | |( | | | |


x=0.72(0.10, y=2.30(0.15, z=3.07(0.16


6.4.3. Метод Халецкого

Этот способ решения системы линейных уравнений может использоваться в
любых слу?аях, не только для решения нормальных уравнений. Он легко
программируется и предназна?ен, в основном, для машинного с?ета.
Основная идея метода. Допустим, ?то мы должны решить систему
уравнений, заданную в матри?ной форме
Ax=y,
где А - квадратная матрица (m х m), х - вектор неизвестных, y - известный
вектор.
Метод основан на разложении квадратной матрицы (условие симметри?ности
необязательно) на две треугольные:
A=BC,
[pic], [pic].
Тогда BCx=y.
Обозна?им Cx=z.
Полу?им Bz=y.
Теперь вместо одной мы будем иметь две системы уравнений:
[pic],
[pic],
[pic],
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . .
[pic].
Из первой системы последовательно определяются вспомогательные неизвестные
[pic]. После этого из второй системы в обратном порядке определяются
искомые [pic].
При решении системы нормальных уравнений нам необходимо определить
обратную матрицу этой системы, так как она нужна для вы?исления весовых
коэффициентов неизвестных. При обращении матрицы А необходимо столбец y
заменить на m столбцов едини?ной матрицы и решить систему m раз.
Разложение матрицы А на две треугольные производят следующим образом.
Имеем тождество:
[pic].
Выполняя произведение матриц в правой ?асти тождества и приравнивая
соответствующие результаты произведений элементам матрицы А, полу?им
последовательно элементы матриц B и C.
Вы?исления облег?аются, если придерживаться следующей
последовательности операций:
1. строки B х 1-й столбец С [pic] 1 столбец B,
2. 1 строка B х столбцы С ( 1 строка С,
3. строки B х 2-й столбец С ( 2 столбец B,
4. 2 строка B х столбцы С ( 2 строка С,
5. строки B х 3-й столбец С ( 3 столбец B,
6. 3 строка B х столбцы С ( 3 строка С,
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . .
Для решения системы линейных уравнений метод Халецкого выгоднее
метода последовательных исклю?ений, при?ем, ?ем больше ?исло неизвестных,
тем преимущество становится больше.

Численный пример.
Решить систему нормальных уравнений, используя метод Халецкого:
[pic].
Разложим систему уравнений на две с треугольными матрицами и решим их.

| | B | | | C | | | x |
| | | | | | |z | |
| 35 | | | 1 | |-0.2286| | 0.720|
| | | | |0.2286 | |0.5429 | |
| 8 | | | | 1 |-0.6680| | 2.293|
| |27.2 | | | | |0.2447 | |
| -8 | | 12.0| | | 1 | | 3.066|
| |-18.2 | | | | |3.066 | |


Вы?ислим матрицу весовых коэффициентов. Обозна?им ?ерез Z матрицу
вспомогательных неизвестных, а ?ерез Q - матрицу весовых коэффициентов.
Полу?им
[pic] [pic]
Правильность вы?исления контролирует симметри?ность матрицы Q.
Более подробное описание метода Халецкого можно найти в у?ебниках по
?исленным методам математики (см., например, Демидови? Б.Г. и Марон И.А.,
1970).

6.4.4. Приведение уравнений МНК с неравното?ными наблюдениями к равното?ным

Нормальные уравнения с неравното?ными наблюдениями имеют более
сложный вид, ?ем это предусмотрено, например, схемой Гаусса. Существует
простая операция, которая позволяет преобразовать исходные уравнения так,
?то "наблюдения" становятся равното?ными.
Пусть [pic],
где А - матрица (n х m), х - вектор искомых параметров (m х 1), l и (l -
вектора наблюдений и погрешностей (n х 1).
Если наблюдения независимы, то ковариационная матрица ошибок
наблдений имеет вид
[pic].
Поскольку вес каждого наблюдения обратно пропорционален дисперсии:
[pic],
то [pic].
Обозна?им [pic], [pic].
Умножим исходное матри?ное уравнение слева на [pic]. Полу?им
[pic].
Обозна?им [pic], [pic], [pic].
Теперь [pic],
при?ем ковариационная матрица вектора погрешностей [pic] имеет вид
[pic] .
Мы полу?или, таким образом, ковариационную матрицу ошибок независимых
равното?ных наблюдений. К системе исходных уравнений, отме?енной штрихами,
применима любая методика решения уравнений в методе наименьших квадратов.
Умножение слева на диагональную матрицу [pic] равносильно умножению
каждой к-той строки исходных уравнений на [pic]. Система [pic] должна
быть задана.
МНК может быть применен и к системе с зависимыми наблюдениями, но в
этом слу?ае ковариационная матрица погрешностей наблюдений перестает быть
диагональной и описанная здась методика становится неприменимой.

6.5. Определение параметров нелинейных функций посредством МНК

Рассмотрим функции с одним аргументом и m параметрами. Будм с?итать,
?то аргументом является время t, а параметрами [pic]. В дискретные моменты
[pic] имеем наблюдения этой функции lk, содержащие погрешности (lk. Таким
образом, имеем
[pic],
[pic],
. . . . . . . . . . . . . . . . . . .
[pic].
Используя критерий L2 (сумму квадратов остато?ных разностей), определим
параметры [pic]:
[pic].
В слу?ае неравното?ных независимых наблюдений критерий L2 модифицируется
[pic].
Нормальными уравнениями будут
[pic].
Эти уравнения нелинейны. Минимизация функционала L2 в слу?ае ?исла
неизвестных более двух приводит к о?ень громоздким вы?ислениям. Обы?но в
этом слу?ае прибегают к линеаризации исходных уравнений и к использованию
методики МНК.


6.5.1. Линеаризация и решение

Предположим, ?то какие-то приближенные зна?ения параметров [pic] нам
известны. Обозна?им их ?ерез [pic]. Тогда
[pic],
где [pic] - искомая поправка. Будем также с?итать, ?то эта поправка
достато?но мала, ?тобы мы имели право заменить то?ное зна?ение функции на
приближенное, ограни?иваясь разложением Тейлора до первой степени [pic]:
[pic]
Обозна?им
[pic],
[pic].
Полу?им систему линейных уравнений
[pic].
Коэффициенты [pic] образуют матрицу А:
[pic].
Поправки к параметрам и вариации [pic] изобразим в векторном виде:
[pic], [pic].
Теперь для определения наилу?шей в среднеквадрати?еском смысле оценки
вектора параметров [pic] воспользуемся системой линейных нормальных
уравнений, которая в матри?ной форме имеет вид
[pic],
или [pic] в слу?ае неравното?ных наблюдений.
Процедура решения и вы?исления ковариационной матрицы погрешностей оценки
поправок остается такой же, ?то и для "класси?еских" линейных уравнений.
После определения [pic] следует уто?нить параметры
[pic].
СКО для [pic] остается той же, ?то и для [pic].
При решении нелинейных уравнений возникает следующая трудность.
Представим себе, ?то предварительный набор параметров был выбран неуда?но,
так ?то некоторые поправки оказались слишком велики. Тогда замена
нелинейной функции линейной относительно поправок может быть недостато?но
строгой. В этом слу?ае процедуру вы?исления МНК-оценок поправок к
параметрам следует повторить, т.е. вы?ислить вторую итерацию. За
приближенные зна?ения параметров берут МНК-оценки, вы?исленные на первой
итерации.
[pic].
Повторяя всю процедуру составления исходных и нормальных уравнений, мы
полу?им [pic] и новые зна?ения параметров
[pic].
Может оказаться, ?то и второй итерации недостато?но. Тогда [pic]принимают
за приближенные зна?ения и вы?исляют поправки [pic] на третьей итерации.
Процедура продолжается до тех пор, пока СКО оценок не перестанут
уменьшаться, а поправки не будут превышать по модулю этих средних
квадрати?еских ошибок.
Типи?ный пример применения МНК к нелинейным функциям - зада?а
улу?шения орбит по заданным наблюдениям координат этих небесных тел.


6.5.2. Линеаризация заменой переменных. Вы?исление средних
квадрати?еских ошибок.

Рассмотрим ?астный слу?ай нелинейной функции
[pic],
а наблюдения в момент t=tk связаны с этой функцией следующим образом
[pic].
Введем обозна?ения [pic] , [pic], [pic], [pic].
Теперь наши исходные уравнения линейны относительно неизвестных ( и (:
[pic].
Параметры ( и ( определим, используя МНК:
[pic],
[pic],
[pic], [pic].
Вы?ислим остато?ные разности
[pic]
и среднюю квадрати?ескую ошибку единицы веса
[pic].
Для определения оценок дисперсий и ковариаций ошибок оценок [pic] и [pic]
вы?ислим обратную матрицу
[pic], где [pic].
Следовательно,
[pic], [pic], [pic].
Отсюда имеем оценки дисперсий и ковариаций ошибок
[pic], [pic], [pic].
Однако, нашей зада?ей было определить параметры x,y и их ошибки. Предстоит
решить обратную зада?у теории ошибок: по ошибкам и ковариациям двух функций
определить ошибки аргументов. Будем с?итать, ?то между x,y и (, (
существует однозна?ное соответствие. Тогда по заданным [pic] и [pic]
определим [pic] и [pic]:
[pic].
О?евидно, ?то
[pic],
[pic].
Поэтому
[pic],
[pic].
Заменим дисперсии и ковариации на их оценки. Полу?им квадрат СКО параметров
[pic] и [pic]:
[pic],
[pic].
Метод может быть распространен на любое ?исло неизвестных параметров.


6.5.3. Численный пример (первый вариант)

Рассмотрим решение зада?и исследования круга астрономи?еского
инструмента. Требуется определить параметры, устанавливающие связь между
отс?етами двух микроскопов М1 и М2, отли?ающиеся от 1800 из-за
эксцентриситета круга и других параметров, которые определяют разность
[pic]

[pic],
где а - постоянная ?асть, вызванная нето?ностью установки микроскопов,
[pic] - эксцентриситет круга (см. рис.), М0 - отс?ет лимба, который лежит
на одной прямой, соединяющей центр окружности лимба (О1) и ось вращения
(О). Параметры а, [pic], М0 являются неизвестными, которые нужно определить
методом наименьших квадратов.
Поворотом круга будем устанавливать первый микроскоп на отс?етах
[pic] ?ерез 300 и будем с?итывать со второго микроскопа М2. Таким образом,
наблюдениями в данной зада?е будут разности отс?етов этих микроскопов.
В приведенной ниже таблице приведены зна?ения М1 (первый столбец), М2
(второй столбец), отли?ие от 1800 их разности и "центрированная" разность -
приведенная к среднему зна?ению ([pic]).

| М1 | М2 |М2 - М1 | [pic] |
| | |-1800 | |
| 300 | | 76.7''| -0.6'' |
| |21001'16.7''| | |
| 600 | | 88.5''| 11.2'' |
| |24001'28.5''| | |
| 900 | | 93.1''| 15.8'' |
| |27001'33.1''| | |
| 1200 | | 96.4''| 19.1'' |
| |30001'36.4''| | |
| 1500 | | 91.4''| 14.1'' |
| |33001'31.5''| | |
| 1800 | | 86.9''| 9.6'' |
| |001'26.9'' | | |
| 2100 | | 74.9''| -2.4'' |
| |3001'14.9'' | | |
| 2400 | | 68.7''| -8.6'' |
| |6001'08.7'' | | |
| 2700 | | 61.7''| -15.6'' |
| |9001'01.7'' | | |
| 3000 | | 57.2''| -20.1'' |
| |12000'57.2''| | |
| 3300 | | 62.6''| -14.7'' |
| |15001'02.6''| | |
| 3600 | | 69.1''| -8.2'' |
| |18001'09.1''| | |


ср.зн. 77.3''

Здесь [pic]= М2 - М1 -1800-77.3''
Из основной формулы следует, ?то [pic].
Для того, ?тобы линеаризовать данное выражение, нужно определить
предварительные зна?ения параметров [pic]. Это легко сделать графи?ески.
Построим график зависимости [pic] от М1.

[pic]
Из графика определяем [pic].
Теперь запишем уравнение в вариациях. Пусть [pic], [pic], [pic].
[pic].
Обозна?им [pic],
[pic],
[pic],
[pic].
Теперь имеем исходное уравнение в виде [pic].
Заметим, ?то [pic] - ошибка наблюдений. Она содержится в установке
лимба и отс?ете микроскопа. Строго говоря, эта ошибка входит и в М1 и в М2.
Для того ?тобы МНК был строгим, мы высказываем гипотезу о том, ?то ошибку
содержит только М2 (т.е. [pic]), а вели?ина М1, которая входит в формулу
вы?исления коэффициентом, - безупре?на. Теперь имеем

| М1 | ak | bk | ck | lk |
| 30 | | -18.774| 1 | -1.6 |
| |0.1047 | | | |
| 60 | | -15.707| 1 | +1.0 |
| |1.0593 | | | |
| 90 | | -8.535| 1 | -1.0 |
| |1.7820 | | | |
| 120 | | +0.984| 1 | +0.3 |
| |1.9973 | | | |
| 150 | | 10.239| 1 | -1.7 |
| |1.6773 | | | |
| 180 | | 16.751| 1 | +1.1 |
| |0.9080 | | | |
| 210 | | 18.774| 1 | -1.4 |
| |-0.1047 | | | |
| 240 | | 15.767| 1 | +1.6 |
| |-1.0893 | | | |
| 270 | | 8.535| 1 | +1.2 |
| |-1.7820 | | | |
| 300 | | -0.984| 1 | -1.3 |
| |-1.9973 | | | |
| 330 | | -10.239| 1 | +1.1 |
| |-1.6773 | | | |
| 360 | | -16.751| 1 | +0.3 |
| |-0.9080 | | | |

Нормальные уравнения имеют вид
[pic].
Поскольку матрица нормальных уравнений диагональная, полу?им
[pic], [pic],
[pic], [pic],
[pic], [pic].
Сумму квадратов остато?ных уклонений вы?ислим по формуле
[pic].
Поэтому [pic].
Таким образом,
[pic],
[pic],
[pic].
Следовательно,
[pic]
Из-за того, ?то поправки полу?ились меньше по абсолютному зна?ению ошибок,
вторая итерация в данном слу?ае не требуется.

6.5.4. Численный пример (второй вариант)

Вернемся снова к только ?то рассмотренному ?исленному примеру.
Запишем основное уравнение следующим образом:
[pic] .
Введем обозна?ения
[pic], [pic],
[pic], [pic],
[pic], [pic],
[pic].
Теперь исходные уравнения линейны. Коэффициенты этих уравнений и правая
?асть приведены в таблице
| М1 | ak | bk | ck | lk |
| 30 | 0.500| 0.866 | 1 | -0.6 |
| 60 | 0.866| 0.500 | 1 | 11.2 |
| 90 | 1.000| 0.000 | 1 | 15.8 |
| 120 | 0.866| -0.500 | 1 | 19.1 |
| 150 | 0.500| -0.866 | 1 | 14.1 |
| 180 | 0.000| -1.000 | 1 | 9.6 |
| 210 | -0.500| -0.866 | 1 | -2.4 |
| 240 | -0.866| -0.500 | 1 | -8.6 |
| 270 | -1.000| 0.000 | 1 | -15.6 |
| 300 | -0.866| 0.500 | 1 | -20.6 |
| 330 | -0.500| 0.866 | 1 | -14.7 |
| 360 | 0.000| 1.000 | 1 | -8.2 |


Нормальные уравнения снова имеют диагональную форму
[pic],
[pic], [pic],
[pic], [pic], [pic],
[pic], [pic], [pic].

Следовательно, [pic],
[pic],
[pic].
Теперь нужно вы?ислить искомые [pic], M0 и a и их ошибки. Как следует из
приведенных формул
[pic],
[pic],
[pic].
Остается вы?ислить ошибки
[pic],
[pic].
Поскольку матрица нормальных уравнений диагональна, ковариация между (x и
(y равна нулю. Следовательно,
[pic],
[pic],
[pic],
[pic],
[pic],
[pic].
Итак,
[pic],
[pic],
[pic].
Полу?енный результат практи?ески не отли?ается от того, который мы имеем в
предыдущем слу?ае.