El método de aproximaciones sucesivas de Picard (por Charles Émile Picard , matemático francés que lo desarrolló) es un método iterativo para obtener una solución a una ecuación diferencial .
Para un problema de Cauchy con la ecuación diferencial
y
′
=
f
(
x
,
y
)
{\displaystyle y'=f(x,y)}
y condición de contorno
y
|
x
=
x
0
=
y
0
{\displaystyle y|_{x=x_{0}}=y_{0}}
donde se puede asegurar la existencia y unicidad de solución para un dominio
D
:
|
x
−
x
0
|
<
a
,
|
y
−
y
o
|
<
b
{\displaystyle D:{|x-x_{0}|<a,|y-y_{o}|<b}}
es posible construir una solución de forma iterativa según la expresión
y
n
(
x
)
=
y
0
+
∫
x
0
x
f
(
t
,
y
n
−
1
(
t
)
)
d
t
{\displaystyle y_{n}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{n-1}(t))dt}
Donde
y
0
{\displaystyle y_{0}}
se puede elegir arbitrariamente. Lo habitual es elegir
y
0
=
x
0
{\displaystyle y_{0}=x_{0}}
.
La convergencia de esta serie de funciones es demostrable en el intervalo
x
0
−
h
<
x
<
x
0
+
h
{\displaystyle x_{0}-h<x<x_{0}+h}
donde
h
=
min
(
a
,
b
M
)
{\displaystyle h=\min \left(a,{\frac {b}{M}}\right)}
con
M
=
max
(
x
,
y
)
∈
D
|
f
(
x
,
y
)
|
{\displaystyle M=\max _{(x,y)\in D}|f(x,y)|}
.
El error del paso enésimo es acotable mediante la desigualdad
|
y
(
x
)
−
y
n
(
x
)
|
≤
M
N
n
−
1
n
!
h
n
{\displaystyle |y(x)-y_{n}(x)|\leq {\frac {MN^{n-1}}{n!}}h^{n}}
donde
N
=
max
(
x
,
y
)
∈
D
|
∂
f
∂
y
|
{\displaystyle N=\max _{(x,y)\in {}D}\left|{\frac {\partial f}{\partial y}}\right|}
. Con ello es posible programar el algoritmo para que itere hasta una resolución dada.
Consideramos el problema de Cauchy
{
y
′
=
2
x
(
1
−
y
)
,
y
(
0
)
=
2.
{\displaystyle {\begin{cases}y'=2x(1-y),\\y(0)=2.\end{cases}}}
En este caso
f
(
x
,
y
)
=
2
x
(
1
−
y
)
{\displaystyle f(x,y)=2x(1-y)}
. Ahora se construirá una solución de forma iterativa según la expresión dada anteriormente.
Definimos
y
0
(
t
)
≡
2
{\displaystyle y_{0}(t)\equiv 2}
y las iteraciones sucesivas son:
y
1
(
x
)
=
y
0
+
∫
x
0
x
f
(
t
,
y
0
(
t
)
)
d
t
=
2
+
∫
0
x
2
t
(
1
−
2
)
d
t
=
2
+
∫
0
x
−
2
t
=
2
−
x
2
{\displaystyle y_{1}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{0}(t))\ dt=2+\int _{0}^{x}2t(1-2)\ dt=2+\int _{0}^{x}-2t=2-x^{2}}
,
y
2
(
x
)
=
y
0
+
∫
x
0
x
f
(
t
,
y
1
(
t
)
)
d
t
=
2
+
∫
0
x
2
t
(
1
−
(
2
−
t
2
)
)
d
t
=
2
−
x
2
+
1
2
x
4
{\displaystyle y_{2}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{1}(t))\ dt=2+\int _{0}^{x}2t(1-(2-t^{2}))\ dt=2-x^{2}+{\frac {1}{2}}x^{4}}
,
y
3
(
x
)
=
y
0
+
∫
x
0
x
f
(
t
,
y
2
(
t
)
)
d
t
=
.
.
.
=
2
−
x
2
+
1
2
x
4
−
1
6
x
6
{\displaystyle y_{3}(x)=y_{0}+\int _{x_{0}}^{x}f(t,y_{2}(t))\ dt=...=2-x^{2}+{\frac {1}{2}}x^{4}-{\frac {1}{6}}x^{6}}
,
y, de forma general, podemos expresar
y
n
(
x
)
{\displaystyle y_{n}(x)}
de la siguiente forma:
y
n
(
x
)
=
1
+
(
1
+
(
−
x
2
)
1
!
+
(
−
x
2
)
2
2
!
+
(
−
x
2
)
3
3
!
+
(
−
x
2
)
4
4
!
+
(
−
x
2
)
5
5
!
+
.
.
.
+
(
−
x
2
)
n
n
!
)
{\displaystyle y_{n}(x)=1+{\bigg (}1+{\frac {(-x^{2})}{1!}}+{\frac {(-x^{2})^{2}}{2!}}+{\frac {(-x^{2})^{3}}{3!}}+{\frac {(-x^{2})^{4}}{4!}}+{\frac {(-x^{2})^{5}}{5!}}+...+{\frac {(-x^{2})^{n}}{n!}}{\bigg )}}
.
Se puede observar que las aproximaciones son las sumas parciales del desarrollo en serie de potencias de
1
+
e
−
x
2
{\displaystyle 1+e^{-x^{2}}}
, que es la solución al problema de Cauchy anterior.
Ecuaciones Diferenciales Ordinarias . M.L.Krasnov, A.I.Kiseliov, G.I.Makárenko. Editorial URSS. ISBN 5-354-01099-3