Назад в библиотеку

Метод обработки наблюдений Коши

Автори:Ю. В. Линник

Источник: Ю. В. Линник – Метод наименьших квадратов и основы математико-;статистической теории обработки наблюдений – 1958, с.317–319

Метод обработки наблюдений Коши

Рассмотрим схему уравнивания по элементам. Для простоты и без нарушения общности положим Х0=0, так что система фундаментальных уравнений примет вид.

Y = L – ∆ = XA,

где Y – матрица свободных членов, Х – матрица коэффициентов при неизвестных, А – вектор столбец неизвестных.

Или, подробнее, yr = lr – ∆r (1)

Наблюдения предполагаются равноточными. Мы видели, что при нормальности вектора погрешностей ∆ метод наименьших квадратов имеет некоторые экстремальные свойства среди широкого класса других методов, так что его применение в этом смысле выгодно. Но в вычислительном отношении решение системы нормальных уравнений, несмотря на обычно применяемые упрощающие приемы, все еще представляет затруднения. Поэтому иногда прибегают и к другим методам оценивая аj по наблюдениям lr ( r = 1, 2…, N) и фундаментальным уравнениям.

Составление нормальных уравнений и получение с их помощью оценок для параметров (а1 , …., а n) есть, в конечном счете, метод такого комбинирования N уравнений с погрешностями избыточной системы чтобы в результате можно было получить разрешимую систему линейных уравнений относительно n параметров (а1 , …., а n). Таких методов может быть много, помимо метода наименьших квадратов . хотя, как пояснено выше, они не будут уже иметь экстремальных свойств, присущих методу наименьших квадратов. Один из таких методов был предложен О. Коши.

Здесь мы изложим вкратце его содержание. Предписание О. Коши состоит в следующем. Сначала система (1) подготавливается, т.е.умножением каждого уравнения на +1 или –1 добиваются того, что х1j ≥ 0 ( j = 1,2…..N). Предположим, что это уже сделано. Далее, все уравнения складываются, так что получается

(х11 + х21…+ хN1)a1+(x12+x22+… + xN2)a2+….+(x1n+ x2n+…+ xNn)an=y1+…+yN.

Будем придерживаться обозначений Коши, полагая

x1j+x2j+…+ xNj=Sxj ( j = 1,2, …, n)

Имеем тогда

a1Sx1+…+ anSxn =Sy

В силу предыдущего, Sx1 ≥ 0. Деля на Sx1, получаем:

а1 + а2*S_(x_2 )/S_(x_2 ) +аn*S_(x_n )/(Sx_1 ) = Sy/(Sx_1 ) (2)

Умножаем (2) соответственно на х11, х12…. x1N и вычитаем из полученных N уравнений уравнение системы (1); тогда члены, содержащие а1, исчезают и получается система из N уравнений с (n – 1 ) неизвестными а2, ….,аn

(x12 – x11 *(Sx_2)/(Sx_1 ) ) a2+… +( xnn – x11 *(Sx_n)/(Sx_1 ) ) an = y1 – x11 *Sy/(Sx_1 ) ,

(xN2 – xN1 * (Sx_2)/(Sx_1 ) ) a2+…. +(xNn – xN1 *(Sx_n)/(Sx_1 ) ) an = yN – xN1 * Sy/(Sx_1 )

Далее, подготавливаем так же новую систему и производим с ней такие же операции. В конце концов, вообще говоря, получаем систему N уравнений с одним неизвестным аn

Х'rnАn = У'r ( r = 1, 2,…., N );

где хrn' ≥ 0 – получившиеся коэффициенты, а y'r – линейные комбинации из yq ( q = 1, 2, ….N ), получившиеся в процессе работы.

Далее, заменяем в каждом из y'r неизвестные нам yq на известные и наблюдаем yq . Результат такой замены обозначим l'r . После этого находим а'n из уравнений

a'n = (Sl'_r)/(Sx'_r )

Oбратный ход

Подставляем последнее неизвестное в матрицу (1), оставляем неизвестные в левой части уравнения, а известные элементы переносим в правую часть и применяем те же формулы, что и в прямом ходе, до тех пор пока не найдем все неизвестные элементы. Формируем вектор столбец из найденных неизвестных.