Privacy Policy Cookie Policy Terms and Conditions Hesse-Matrix - Wikipedia

Hesse-Matrix

aus Wikipedia, der freien Enzyklopädie

Die Hesse-Matrix (nach Otto Hesse) fasst die partiellen zweiten Ableitungen einer mehrdimensionalen Funktion f(x1,..xn), die in die reellen oder komplexen Zahlen abbildet, zusammen:

\operatorname{H}(f)= \left(\frac{\partial^2f}{\partial x_i\partial x_j}\right)= \begin{pmatrix} \frac{\partial^2 f}{\partial x_1\partial x_1}&\frac{\partial^2 f}{\partial x_1\partial x_2}&\cdots&\frac{\partial^2  f}{\partial x_1\partial x_n}\\[,5em] \frac{\partial^2 f}{\partial x_2\partial x_1}&\frac{\partial^2 f}{\partial x_2\partial x_2}&\cdots&\frac{\partial^2  f}{\partial x_2\partial x_n}\\ \vdots&\vdots&&\vdots\\ \frac{\partial^2 f}{\partial x_n\partial x_1}&\frac{\partial^2 f}{\partial x_n\partial x_2}&\cdots&\frac{\partial^2  f}{\partial x_n\partial x_n} \end{pmatrix}

Die Hesse-Matrix entspricht dem Transponierten der Ableitung des Gradienten, ist aber bei stetigen zweiten Ableitungen wegen der Vertauschbarkeit der Differentiationsreihenfolge (Satz von Schwarz) symmetrisch, so dass das Transponieren der Matrix keine Änderung bewirkt.

Mit Hilfe der Hesse-Matrix H lässt sich der Charakter der kritischen Punkte einer Abbildung in \mathbb R^n bestimmen. Dazu bestimmt man für die zuvor ermittelten kritischen Punkte die Definitheit der Hesse-Matrix H. Ist H an einer Stelle positiv definit, so befindet sich dort ein lokales Minimum der Funktion. Ist H dort negativ definit, so handelt es sich um ein lokales Maximum. Ist H indefinit, dann handelt es sich um einen Sattelpunkt der Funktion, d. h., es liegt weder ein Minimum noch ein Maximum vor. Falls H an der untersuchten Stelle nur semidefinit ist, so versagt dieses Kriterium und der Charakter des kritischen Punktes muss auf anderem Wege ermittelt werden. Welcher dieser Fälle vorliegt kann, wie unter Definitheit beschrieben, z. B. mit Hilfe der Vorzeichen der Eigenwerte von H oder ihrer Hauptminoren entschieden werden.

[Bearbeiten] Anwendungen

Die Hesse-Matrix taucht bei der Approximation einer mehrdimensionalen Funktion in der Taylor-Entwicklung auf. Sie ist unter anderem in Zusammenhang mit der Optimierung von Systemen von Bedeutung, die durch mehrere Parameter beschrieben werden, wie sie beispielsweise in den Wirtschaftswissenschaften häufig auftreten. Außerdem spielt sie bei Neuronalen Netzen eine Rolle (Second-Order Lernalgorithmen).

[Bearbeiten] Weblinks

Wikibooks: Hesse-Matrix – Lern- und Lehrmaterialien

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -