Gram-Schmidt'in ortogonalleştirme yöntemi

Gram-Schmidt yöntemi bir bir algoritma ile ilgili matematiksel dalı arasında lineer cebir . Her sistem için lineer bağımsız vektörleri, o oluşturur bir ortogonal sistemi bir mesafede Prähilbert alanı (bir vektör uzayı bir ile skalar ürün ) , oluşturur aynı alt vektör uzayı . Gram-Schmidt ortonormalizasyon yöntemi bir uzantıyı temsil eder : Ortogonal bir sistem yerine ortonormal bir sistemi hesaplar . Algoritmalar için girdi olarak bir temel vektörler sistemi kullanılırsa , bunlar bir ortogonal veya ortonormal temeli hesaplar .

İki işlemin adı Jørgen Pedersen Gram ve Erhard Schmidt'ten alınmıştır . Ancak, Pierre-Simon Laplace ve Augustin-Louis Cauchy'nin eserlerinde daha önce kullanılmışlardır .

Gram-Schmidt yöntemleri, kayan nokta aritmetiği olan bir bilgisayar tarafından sayısal hesaplama için pek uygun değildir. Birikmiş yuvarlama hataları nedeniyle , hesaplanan vektörler artık ortogonal değildir. Bununla birlikte, bu dezavantaja sahip olmayan yöntem değişiklikleri vardır . Diğer ortogonalleştirme yöntemleri, evsel dönüşümlere veya Givens rotasyonlarına dayanır .

Ön açıklama

Aşağıda, söz konusu vektör uzayı (vektörler) elemanları, basit Latince gibi harfler ile belirtilmiştir ve , örneğin, indisli gerektiğinde ve . Hem bindirme oklarından hem de kalın yazıdan vazgeçilir. Nokta ürün açılı parantez ile temsil edilmektedir: . Karmaşık durumda, kural, skaler çarpımın ilk bağımsız değişkende yarı doğrusal ve ikinci bağımsız değişkende doğrusal olduğu, yani

Tüm vektörler için , ve . Karmaşık durumda, skaler çarpımdaki faktörlerin sırası, aşağıda gösterilen formüllerde önemlidir, ancak gerçek durumda değildir.

Buna ek olarak, temsil eder normunu vektörü .

Ortogonalleştirme sürecinin algoritması

Üç vektörlü bir örnek kullanarak Gram-Schmidt yönteminin gösterimi

Aşağıdaki algoritma hesaplar bir ortogonal sistemi arasında ikişerli ortogonal vektörler lineer bağımsız için aynı altuzaya oluşturur vektörleri.

Ortogonal sistemin münferit vektörleri şu şekilde hesaplanır:

Başka bir deyişle, for , yinelemeli olarak

Tanımlanmıştır.

misal

Olarak birlikte verilen standart skalar iki lineer bağımsız vektörler, bir alt uzay sağlamak belirlenir:

İki ortogonal vektörler ve artık aynı alt vektör alan oluşturmak hesaplanan:

Ortonormalizasyon yönteminin algoritması

Aşağıdaki algoritma hesaplar bir ortonormal sistemi arasında normalize, çiftli ortogonal vektörler lineer bağımsız için aynı altuzaya oluşturur vektörleri. Yukarıdaki algoritma ile belirlenen ortogonal vektörlerin normalleştirilmesiyle aynıdır.

Ortonormal sistemin ayrı vektörleri, önce ortogonal bir vektörün hesaplanması ve ardından normalleştirilmesiyle elde edilir:

(İlk vektörü normalleştirin )
(İkinci vektörün ortogonalleştirilmesi )
(Vektörü normalleştirin )
(Üçüncü vektörün ortogonalleştirilmesi )
(Vektörü normalleştirin )
( -Nci vektörün ortogonalleştirilmesi )
(Vektörü normalleştirin )

Başka bir deyişle, ve için özyinelemeli olur

ve tanımlanmıştır.

Genel olarak, bu yöntem özellikle mükemmel bir sistem sağlamaz. Im zorunluluk z. B. Sağ veya sol bir sistem elde etmek için yalnızca bir yeniden düzenleme adımı izlenebilir.

misal

Gelen ile donatılmış standart bir skaler iki baz vektörler verilebilir:

İki vektör ve şimdi hesaplanır, bunlar .

Uyarılar

Her iki yöntemin de özel bir özelliği, her ara adımdan sonra şimdiye kadar hesaplanan vektörlerin, vektörlerle aynı vektör uzayını oluşturmasıdır . Dolayısıyla vektörler , karşılık gelen alt vektör uzaylarının ortogonal veya ortonormal bir temelini oluşturur. Diğer bir deyişle, bir sistemin koordinatlarını diğerinde ifade eden dönüşüm matrisi, sağ üstte üçgen bir matristir. Bunun aynı zamanda pozitif bir determinantı vardır, dolayısıyla ortaya çıkan ortogonal veya ortonormal temel, başlangıç ​​tabanıyla aynı yönelime sahiptir. Biri bir Q matrisinin sütunları olarak ortonormal vektörleri ve bir A matrisini oluşturmak için ilk sistemin vektörlerini özetlerse , o zaman A = QR olan üçgen bir R matrisi vardır , dolayısıyla bir QR ayrışımı belirlenir. Buna göre, Gram-Schmidt ortonormalizasyonunun sonucu, Givens rotasyonları veya Householder yansımaları ile çalışan diğer QR ayrıştırma yöntemleriyle de belirlenebilir .

Bir ortogonal sistemi elle hesaplarsanız, önce ortogonal bir sistemi hesaplamak ve sonra tek tek vektörleri normalleştirmek genellikle daha kolaydır. Bu, sizi iki kez standartlaştırma zorunluluğundan kurtarır ve genellikle daha basit değerler kullanabilirsiniz. Ortogonal sistemi / ortonormal sistemi oluşturmadan önce Gauss eleme yöntemini uygulamak faydalı olabilir .

Prosedürün prensibi

Ortogonal vektörler zaten belirlenmişse, vektörlerin uygun bir doğrusal kombinasyonunu buradan çıkarmaya çalışırız , böylece fark vektörü

tüm vektörlere ortogonal hale gelir . Bu, hepsi için 0 değerini veren skaler çarpımla eş anlamlıdır . Her ifade için böyle bir doğrusal kombinasyon elde edilir.

seçilmiş. Tüm skaler ürünlerin olduğu bir kontrol hesaplama gösterileri ile 0 değerini varsayalım:

Sonsuz vektör sistemlerinin ortonormalizasyonu

Herhangi birinde Hilbert alan yöntem ayrıca bağımsızlık bir eleman bulunmaktadır anlamında anlaşılmalıdır, burada bağımsız vektörlerin sonsuz sistemlerine uygulanabilir sonunda doğrusal zarf başka vektörler. Bir olgu sayılabilir sistem (yani a, ayrılabilir Hilbert alanı ) yukarıda sunulan sonlu durum doğrudan takip edilebilir: Bağımsız bir sekansı göz önüne alındığında , karşılık gelen bir ortonormal dizisi elde edilir tarafından uygulanması ve elde Yukarıdaki prosedür her biri için . Daha genel olarak, her bağımsız bir sistem iyi sırasına göre izlenebilir teoremi bir dizi olarak bir için önemli sayıda ve sıra sayıları (a durumunda , yoğun lineer kaplama bağımsız sistemi, boyutu arasında bir tam ). Şimdi tayin ortogonal projeksiyonu kapalı bir matrisini nedeniyle alan eksiksizliği her zaman vardır, normalleştirme belirlemek . Ortonormal sistemde bu sonuçlar sayesinde

.

Kullanılması o sonluötesi indüksiyon o gösterilebilir için bile, . Prosedür, transfinite özyineleme yoluyla aşağıdaki gibi daha açık bir şekilde yazılabilir :

Burada toplam, Bessel eşitsizliği nedeniyle iyi tanımlanmıştır (özellikle, her zaman sıfıra eşit olmayan yalnızca sayılabilecek kadar çok sayıda zirve vardır).

Edebiyat

  • K. Kirchgessner, M. Schreck: Kuklalar için vektör analizi. Cep kitabı ciltsiz . Wiley-VCH, 2012. ISBN 978-3-527-70742-3