Privacy Policy Cookie Policy Terms and Conditions Metaheuristik - Wikipedia

Metaheuristik

aus Wikipedia, der freien Enzyklopädie

Eine Metaheuristik ist in der Mathematik ein Algorithmus zur näherungsweisen Lösung eines kombinatorischen Optimierungsproblems. In der Regel ist nicht garantiert, dass eine Metaheuristik ein optimale Lösung findet.

Im Gegensatz zu problemspezifischen Heuristiken, die nur auf ein bestimmtes Optimierungsproblem angewendet werden können, definieren Metaheuristiken eine abstrakte Folge von Schritten, die (theoretisch) auf beliebige Problemstellungen angewandt werden können. Die einzelnen Schritte müssen allerdings wieder problemspezifisch implementiert werden. Der Name Metaheuristik entstand durch die Verbindung zweier griechischer Wörter. Heuristik stammt vom Verb heuriskein (ευρισκειν) (zu Deutsch finden) und der Präposition meta.

Generell hängen der Erfolg und die Laufzeit metaheuristischer Verfahren wesentlich von der Definition und Implementierung der einzelnen Schritte ab. Prinzipiell können all diese Verfahren gute Lösungen berechnen, aber auch beliebig schlecht im Vergleich zu einer Optimallösung sein.

[Bearbeiten] Beispiele für Metaheuristiken

Viele Metaheuristiken basieren auf dem Prinzip der lokalen Suche:

  1. Bestimme eine Startlösung L.
  2. Definiere eine Nachbarschaft von zu L „ähnlichen“ Lösungen.
  3. Suche diese Nachbarschaft vollständig ab und bestimme die beste Lösung.

Die genaue Definition der einzelnen Schritte hängt vom untersuchten Problem ab (für Beispiele siehe lokale Suche), und die so gefundene Lösung ist in der Regel nicht global optimal. Durch Tabu-Listen wird vermieden, dass bereits gefundene Lösungen nochmal betrachtet werden. Um das Steckenbleiben in lokalen Minima soweit wie möglich zu verhindern, kann man beispielsweise

Eine ganze Klasse weiterer naturinspirierter Verfahren verwendet Schwarmintelligenzen. Bei so genannten Ameisenalgorithmen (engl. Ant Colony Optimization), wird hierzu das natürliche Verhalten von Ameisen auf der Wegsuche modelliert, während bei der Partikelschwarmoptimierung das Verhalten von Vogel- oder Fischschwärmen als Vorbild genommen wird. Inwieweit diese Anlehnung an die Natur für das schnelle Finden guter Lösungen von Vorteil ist, ist umstritten. Auch mit künstlichen neuronalen Netzen und ähnlichen statistischen Verfahren, wie Self-Organizing Maps, gab es Versuche.

Andere Sprachen

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -