Pseudokonvexe Funktion

Pseudokonvexe Funktionen spielen in der nichtlinearen Optimierung eine entscheidende Rolle. Die starke Voraussetzung der Konvexität an Zielfunktionen oder Nebenbedingungen ist in vielen Fällen nicht erfüllt. Mit abschwächenden Konvexitätsbegriffen wie Quasikonvexität oder Pseudokonvexität versucht man dann gewisse Eigenschaften zu retten, um sie in der Algorithmik einzusetzen. Im Folgenden sei eine reellwertige Funktion f {\displaystyle f} auf einer offenen Teilmenge Γ R n {\displaystyle \Gamma \subseteq \mathbb {R} ^{n}} differenzierbar. Falls die Funktion die folgende Eigenschaft erfüllt, so heißt sie pseudokonvex: Für alle x 1 , x 2 Γ {\displaystyle \forall x_{1},x_{2}\in \Gamma } gilt:

Aus f ( x 1 ) T ( x 2 x 1 ) 0 {\displaystyle \nabla f\left(x_{1}\right)^{T}\left(x_{2}-x_{1}\right)\geq 0} folgt f ( x 2 ) f ( x 1 ) {\displaystyle f\left(x_{2}\right)\geq f\left(x_{1}\right)} .

Gilt sogar

Aus f ( x 1 ) T ( x 2 x 1 ) 0 {\displaystyle \nabla f\left(x_{1}\right)^{T}\left(x_{2}-x_{1}\right)\geq 0} und x 1 x 2 {\displaystyle x_{1}\not =x_{2}} folgt f ( x 2 ) > f ( x 1 ) {\displaystyle f\left(x_{2}\right)>f\left(x_{1}\right)} .

so nennt man die Funktion strikt pseudokonvex.[1] Dabei bezeichnet f ( x ) {\displaystyle \nabla f(x)} den Gradienten von f {\displaystyle f} an der Stelle x Γ {\displaystyle x\in \Gamma } .

Ist Γ R {\displaystyle \Gamma \subset \mathbb {R} } (also n = 1 {\displaystyle n=1} ) so lautet die Bedingung zur Pseudokonvexität einfach:

Aus f ( x 1 ) ( x 2 x 1 ) 0 {\displaystyle f'(x_{1})(x_{2}-x_{1})\geq 0} folgt f ( x 2 ) f ( x 1 ) {\displaystyle f(x_{2})\geq f(x_{1})} .

Eine Funktion heißt pseudokonkav, wenn das Negative der Funktion pseudokonvex ist.

Beispiele und Eigenschaften

blau: f ( x ) := x e x {\displaystyle f(x):=xe^{x}} , rot: g ( x ) := 1 1 + x 2 {\displaystyle \textstyle g(x):={\frac {-1}{1+x^{2}}}}

Differenzierbare konvexe Funktionen sind pseudokonvex. Die Funktionen

f ( x ) := x e x {\displaystyle f(x):=xe^{x}} und
g ( x ) := 1 1 + x 2 {\displaystyle g(x):={\frac {-1}{1+x^{2}}}}

sind Beispiele für pseudokonvexe Funktionen R R {\displaystyle \mathbb {R} \rightarrow \mathbb {R} } , die nicht konvex sind.[2]

Pseudokonvexe Funktionen auf konvexen Bereichen sind strikt quasikonvex.[3][4]

Bedeutung für die Optimierung

Verschwindet die Ableitung einer pseudokonvexen Funktion im Punkt x 1 {\displaystyle x_{1}} , so liegt dort ein Minimum vor. Das folgt sofort aus der Definition, denn in diesem Fall ist die Prämisse unabhängig von x 2 {\displaystyle x_{2}} erfüllt und es folgt f ( x 2 ) f ( x 1 ) {\displaystyle f(x_{2})\geq f(x_{1})} . Die Definition der Pseudokonvexität ist gerade so angelegt, dass das gilt.[5]

Einzelnachweise

  1. Karl-Heinz Borgwardt, Optimierung, Operations Research, Spieltheorie, Birkhäuser, Basel 2001, ISBN 3-7643-6519-6, Definition 12.14
  2. L. Collatz, W. Wetterling: Optimierungsaufgaben, Springer-Verlag (1966), ISBN 0-387-05616-5, Absatz 6.4
  3. L. Collatz, W. Wetterling: Optimierungsaufgaben, Springer-Verlag (1966), ISBN 0-387-05616-5, §6, Satz 10
  4. D. Jungnickel: Optimierungsmethoden, Springer-Verlag (2008), ISBN 3-540-76789-4, Korollar 3.4.14
  5. D. Jungnickel: Optimierungsmethoden, Springer-Verlag (2008), ISBN 3-540-76789-4, Satz 3.4.15