scipy.optimize.

nnls#

scipy.optimize.nnls(A, b, *, maxiter=None, atol=<object object>)[Quelle]#

Löst argmin_x || Ax - b ||_2 für x>=0.

Dieses Problem, oft als NonNegative Least Squares bezeichnet, ist ein konvexes Optimierungsproblem mit konvexen Nebenbedingungen. Es tritt typischerweise auf, wenn die x-Modelle Mengen darstellen, für die nur nicht-negative Werte möglich sind; Gewicht von Zutaten, Kosten von Komponenten und so weiter.

Veraltet seit Version 1.18.0: Die Verwendung von Argument(en) {'maxiter'} nach Position ist veraltet; ab SciPy 1.18.0 werden diese nur noch als Schlüsselwortargumente erlaubt sein. Argument(en) {'atol'} sind veraltet, unabhängig davon, ob sie positionell oder als Schlüsselwort übergeben werden; sie werden in SciPy 1.18.0 entfernt.

Parameter:
A(m, n) ndarray

Koeffizienten-Array

b(m,) ndarray, float

Vektor der rechten Seite.

maxiter: int, optional

Maximale Anzahl von Iterationen, optional. Standardwert ist 3 * n.

atolfloat, optional

Veraltet seit Version 1.18.0: Dieser Parameter ist veraltet und wird in SciPy 1.18.0 entfernt. Er wird in der Implementierung nicht verwendet.

Rückgabe:
xndarray

Lösungsvektor.

rnormfloat

Die 2-Norm des Residuums, || Ax-b ||_2.

Siehe auch

lsq_linear

Lineare Kleinste Quadrate mit Beschränkungen für die Variablen

Hinweise

Der Code basiert auf dem klassischen Algorithmus von [1]. Er verwendet eine Active-Set-Methode und löst die KKT-Bedingungen (Karush-Kuhn-Tucker) für das Nicht-Negative Kleinste-Quadrate-Problem.

Referenzen

[1]

: Lawson C., Hanson R.J., „Solving Least Squares Problems“, SIAM, 1995, DOI:10.1137/1.9781611971217

Beispiele

>>> import numpy as np
>>> from scipy.optimize import nnls
...
>>> A = np.array([[1, 0], [1, 0], [0, 1]])
>>> b = np.array([2, 1, 1])
>>> nnls(A, b)
(array([1.5, 1. ]), 0.7071067811865475)
>>> b = np.array([-1, -1, -1])
>>> nnls(A, b)
(array([0., 0.]), 1.7320508075688772)