cgs#
- scipy.sparse.linalg.cgs(A, b, x0=None, *, rtol=1e-05, atol=0.0, maxiter=None, M=None, callback=None)[Quelle]#
Löse
Ax = bmit der Conjugate Gradient Squared Methode.- Parameter:
- A{sparse array, ndarray, LinearOperator}
Die reellwertige N-mal-N-Matrix des linearen Systems. Alternativ kann A ein linearer Operator sein, der
Axerzeugen kann, z.B. mitscipy.sparse.linalg.LinearOperator.- bndarray
Rechte Seite des linearen Systems. Hat die Form (N,) oder (N,1).
- x0ndarray
Startschätzung für die Lösung.
- rtol, atolfloat, optional
Parameter für den Konvergenztest. Für Konvergenz sollte
norm(b - A @ x) <= max(rtol*norm(b), atol)erfüllt sein. Der Standardwert istatol=0.undrtol=1e-5.- maxiterinteger
Maximale Anzahl von Iterationen. Die Iteration wird nach maxiter-Schritten beendet, auch wenn die angegebene Toleranz nicht erreicht wurde.
- M{sparse array, ndarray, LinearOperator}
Präkonditionierer für
A. Er sollte die Inverse von A approximieren (siehe Hinweise). Effektive Präkonditionierung verbessert dramatisch die Konvergenzrate, was bedeutet, dass weniger Iterationen benötigt werden, um eine gegebene Fehlertoleranz zu erreichen.- callbackfunction
Vom Benutzer bereitgestellte Funktion, die nach jeder Iteration aufgerufen wird. Sie wird als
callback(xk)aufgerufen, wobeixkder aktuelle Lösungsvektor ist.
- Rückgabe:
- xndarray
Die konvergierte Lösung.
- infointeger
- Liefert Konvergenzinformationen
0 : erfolgreicher Abbruch >0 : Konvergenz zur Toleranz nicht erreicht, Anzahl der Iterationen <0 : Parameterzusammenbruch
Hinweise
Der Präkonditionierer M sollte eine Matrix sein, so dass
M @ Aeine kleinere Konditionszahl als A hat, siehe [1].Referenzen
[1]„Vorkonditionierer“, Wikipedia, https://de.wikipedia.org/wiki/Vorkonditionierer
[2]„Conjugate gradient squared“, Wikipedia, https://en.wikipedia.org/wiki/Conjugate_gradient_squared_method
Beispiele
>>> import numpy as np >>> from scipy.sparse import csc_array >>> from scipy.sparse.linalg import cgs >>> R = np.array([[4, 2, 0, 1], ... [3, 0, 0, 2], ... [0, 1, 1, 1], ... [0, 2, 1, 0]]) >>> A = csc_array(R) >>> b = np.array([-1, -0.5, -1, 2]) >>> x, exit_code = cgs(A, b) >>> print(exit_code) # 0 indicates successful convergence 0 >>> np.allclose(A.dot(x), b) True