Numerično odvajanje#

Uvod#

Vsako elementarno funkcijo lahko analitično odvajamo. Definicija odvoda je:

\[ f'(x)=\lim_{\Delta x \rightarrow 0}\frac{f(x+\Delta x)-f(x)}{\Delta x}. \]

Neposredna uporaba zgornje enačbe vodi v odštevanje zelo podobnih funkcijskih vrednostih (\(f(x+\Delta x)\), \(f(x)\)), obremenjenih z zaokrožitveno napako, ki jih delimo z majhno vrednostjo \(\Delta x\); posledično ima odvod bistveno manj signifikantnih števk kakor pa funkcijske vrednosti. Numeričnemu odvajanju se izognemo, če imamo to možnost; je pa v nekaterih primerih (npr. reševanje diferencialnih enačb) nepogrešljivo orodje!

Pri numeričnem odvajanju imamo dva, v principu različna, pristopa:

  1. najprej izvedemo interpolacijo/aproksimacijo, nato pa na podlagi znanih interpolacijskih/aproksimacijskih funkcij izračunamo odvod (o tej temi smo že govorili pri interpolaciji oz. aproksimaciji) in

  2. računanje odvoda neposredno iz vrednosti iz tabele.

V okviru tega poglavja se bomo seznanili s tem, kako numerično izračunamo odvod funkcije \(f(x)\); pri tem so vrednosti funkcije \(f(x)\) podane tabelarično (pari \(x_i\), \(y_i\)), kakor je prikazano na sliki: ![Odvajanje](./fig/odvajanje_tabela.png‘ width=400> Najprej se bomo osredotočili na ekvidistantno, s korakom \(h\), razporejene vrednosti \(x_i\); vrednosti funkcije pa bodo \(y_i=f(x_i)\).

Glede na zgornjo definicijo odvoda, bi prvi odvod (za mesto \(i\)) lahko zapisali:

\[ y_i'=\frac{y_{i+1}-y_{i}}{h}, \]

kjer je \(h=x_{i+1}-x_{i}\). S preoblikovanjem enačbe:

\[ y_i'=-\frac{y_{i}}{h}+\frac{y_{i+1}}{h}, \]

lahko tudi rečemo, da za prvi odvod funkcije na mestu \(i\), utežimo funkcijsko vrednost pri \(i\) z \(-1/h\) in funkcijsko vrednost pri \(i+1\) z \(+1/h\).

V nadaljevanju si bomo pogledali teoretično ozadje kako določimo ustrezne uteži za različne stopnje odvodov, katere možnosti pri tem imamo in kako to vpliva na red natančnosti.

Aproksimacija prvega odvoda po metodi končnih razlik#

Za uvod si oglejmo spodnji video:

from IPython.display import YouTubeVideo
YouTubeVideo('YYuGL-VP2BE', width=800, height=300)

Odvod \(f'(x)\) lahko aproksimiramo na podlagi razvoja Taylorjeve vrste. To metodo imenujemo metoda končnih razlik ali tudi diferenčna metoda.

Razvijmo Taylorjevo vrsto naprej (naprej, zaradi člena \(+h\)):

\[ f{\left (x + h \right )} =\sum_{n=0}^{\infty}\frac{h^n}{n!}\frac{d^n}{dx^n}f(x)= f{\left (x \right )} + h\, f'\left (x \right ) + \underbrace{\frac{h^2}{2}\,f''(x)+\cdots}_{\mathcal{O}\left(h^{2}\right)} \]

Člen \(\mathcal{O}\left(h^{2}\right)\) označuje napako drugega reda. Če iz enačbe izrazimo prvi odvod:

\[ f'{\left (x \right )}=\frac{1}{h}\left(f{\left (x + h \right )} - f{\left (x \right )}\right) - \underbrace{\frac{h}{2}\,f''(x)+\cdots}_{\mathcal{O}\left(h^{1}\right)} \]

Ugotovimo, da lahko ocenimo prvi odvod v točki \(x_i\) (to je: \(f_o'(x_i)\)) na podlagi dveh zaporednih funkcijskih vrednosti:

\[ f_o'(x_i)=\frac{1}{h}\left(y_{i+1}-y_i\right) \]

in pri tem naredimo napako metode, ki je prvega reda \(\mathcal{O}\left(h^{1}\right)\).

Uporabili smo \(y_i=f(x_i)\) (glejte sliko zgoraj).

Napaka je:

\[e=-\frac{h}{2}\,f''(\xi),\]

kjer je \(\xi\) neznana vrednost na intervalu \([x_i, x_{i+1}]\) in smo zanemarili višje člene.

Velja torej izraz:

\[f'(x_i)=f_o'(x_i)+e\]

Sedaj si poglejmo, kako pridemo do istega rezultata s strojno izpeljavo; najprej uvozimo sympy:

import sympy as sym
sym.init_printing()

Definirajmo simbole:

f = sym.Function('f')
x, h = sym.symbols('x, h')

Nato nadaljujemo z razvojem Taylorjeve vrste naprej (angl. forward Taylor series):

f(x+h).series(h, n=2)
../_images/90a4107c3529fda9ec1f3e58e05546cef2da70362e1f3a590d00716091001428.png

Člen \(\mathcal{O}\left(h^{2}\right)\) vsebuje člene drugega in višjega reda. V zgornji enačbi je uporabljena začasna spremenljivko za odvajanje \(\xi_1\); izvedmo odvajanje in vstavimo \(\xi_1=x\):

f(x+h).series(h, n=2).doit()
../_images/c2f11a9cc0ce37e3e0a755dfe486be6d8e7009f053b1f65bc0a738fd0946f8c7.png

Zapišemo enačbo:

enačba = sym.Eq(f(x+h), f(x+h).series(h, n=2).doit())
enačba
../_images/3ebe8d4aafe92065cbed7539aac63b807e45769ff730fe69910b58186ae08281.png

Rešimo jo za prvi odvod \(f'(x)\):

f1_naprej_točno = sym.solve(enačba, f(x).diff(x))[0]
f1_naprej_točno
../_images/046eb7a3722b69f74910776f2707801d3a7187f96f1dbea19fa594b727f84e5c.png

V kolikor odvoda drugega in višjih redov ne upoštevamo, smo naredili torej napako:

f1_naprej_O = f1_naprej_točno.expand().getO()
f1_naprej_O
../_images/dba3cf105aae8161400070e9beaf8e51e70f43b51586a4cb3c37d019c17866f3.png

Napaka \(\mathcal{O}\left(h^{1}\right)\) je torej prvega reda in če ta člen zanemarimo, naredimo napako metode in dobimo oceno odvoda:

f1_naprej_ocena = f1_naprej_točno.expand().removeO()
f1_naprej_ocena
../_images/13d9df2cf53b349f327d1fd3628f4dd4ab38bdfae4be4b5efb691b1b099f6fce.png

Ugotovimo, da gre za isti izraz, kakor smo ga izpeljali zgoraj, torej je:

\[y_i'=\frac{1}{h}\left(-y_i+y_{i+1}\right).\]

Uteži torej so:

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i}\)

\(y_{i+1}\)

\(y_i'=\frac{1}{h}\cdot\)

-1

1

Centralna diferenčna shema#

Odvod \(f'(x)\)#

Najprej si poglejmo razvoj Taylorjeve vrste nazaj (angl. backward Taylor series):

f(x-h).series(h, n=3).doit()
../_images/40b3597ea528f7945bd87d8d8dadd33d42a0e083c51cfb4b1a4772d6b9e72561.png

Ugotovimo, da se pri razliki vrste naprej in nazaj odštevajo členi sodega reda; definirajmo:

def razlika(n=3):
    return f(x+h).series(h, n=n).doit()-f(x-h).series(h, n=n).doit()
razlika(n=3)
../_images/c319f03984e378cb551addc99289b2eec4a681dd494a19f2eeeb4bea81342142.png

Izvedemo sledeče korake:

  1. Taylorjevo vrsto nazaj odštejemo od vrste naprej, sodi odvodi se odštejejo,

  2. rešimo enačbo za prvi odvod,

  3. določimo napako metode,

  4. določimo oceno odvoda.

Izvedimo zgornje korake:

f1_cent_točno = sym.solve(
           sym.Eq(f(x+h) - f(x-h), razlika(n=3)), # 1 korak
           f(x).diff(x))[0]                       # 2.korak
f1_cent_O = f1_cent_točno.expand().getO()         # 3.korak
f1_cent_ocena = f1_cent_točno.expand().removeO()  # 4.korak

Ocena 1. odvoda torej je:

f1_cent_ocena
../_images/c5d646016aedbeafe676dc9ce7d75f4a9ea6ad8208726cdf0a9f833be7a985cc.png

Ali:

\[y_i'=\frac{1}{2h}\left(-y_{i-1}+y_{i+1}\right)\]

Uteži torej so:

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i-1}\)

\(y_{i}\)

\(y_{i+1}\)

\(y_i'=\frac{1}{2h}\cdot\)

-1

0

1

Napaka metode pa je torej drugega reda:

f1_cent_O
../_images/919118b034b43743a94213d4a29a41281772708497d122d00de7afe6b3f67e16.png

Zgled: \(\exp(-x)\)#

Poglejmo si zgled eksponentne funkcije \(f(x)=\exp(-x)\) in za točko \(x=1,0\) izračunajmo prvi odvod \(f'(x)=-\exp(-x)\) pri koraku \(h_0=1\) in \(h_1=0,1\).

Najprej pripravimo tabelo numeričnih vrednosti in točen rezultat:

import numpy as np
x0 = np.array([0., 1., 2.]) # korak h=1
y0 = np.exp(-x0)
h0 = x0[1]-x0[0]

x1 = np.array([0.9, 1.0, 1.1]) # korak h=0.1
y1 = np.exp(-x1)
h1 = x1[1]-x1[0]

f1_točno0 = - np.exp(-1) # točen rezultat
f1_točno1 = - np.exp(-1) # točen rezultat

Potem uporabimo shemo naprej:

f1_naprej_ocena # da se spomnimo
../_images/13d9df2cf53b349f327d1fd3628f4dd4ab38bdfae4be4b5efb691b1b099f6fce.png
f1_naprej0 = (y0[1:]-y0[:-1])/h0   # korak h_0
f1_naprej1 = (y1[1:]-y1[:-1])/h1   # korak h_1

Izračunajmo napako pri \(x=1,0\):

f1_točno0 - f1_naprej0[1]
../_images/ba2fbab0f8540d26aacbb07b4225bbacc5bbe4a833bf73db16ed03735c523109.png
f1_točno1 - f1_naprej1[1] # korak h1
../_images/230835bb62689df61dac8a529ce62054eb1037c322afe7099dd0527b4a1197c1.png

Potrdimo lahko, da je napaka pri koraku \(h/10\) res približno 1/10 tiste pri koraku \(h\).

Poglejmo sedaj še napako za centralno diferenčno shemo, ki je drugega reda:

f1_cent_ocena
../_images/c5d646016aedbeafe676dc9ce7d75f4a9ea6ad8208726cdf0a9f833be7a985cc.png
f1_cent0 = (y0[2:]-y0[:-2])/(2*h0) # korak h_0
f1_cent1 = (y1[2:]-y1[:-2])/(2*h1) # korak h_1

Analizirajmo napako:

f1_točno0 - f1_cent0[0] # korak h0
../_images/bf9b126dbc8e9633c43bcd96179f4ef5c677c52b9fd8cfd9963da1c84a342942.png
f1_točno1 - f1_cent1[0] # korak h1
../_images/f4a69bd8d8abae044936a87ca89d67c5c26c096b9872d38204eeb2279a6b2b46.png

Potrdimo lahko, da je napaka pri koraku \(h/10\) res približno 1/100 tiste pri koraku \(h\).

Odvod \(f''(x)\)#

Če Taylorjevo vrsto naprej in nazaj seštejemo, se odštejejo lihi odvodi:

def vsota(n=3):
    return f(x+h).series(h, n=n).doit() + f(x-h).series(h, n=n).doit()
vsota(n=4)
../_images/55774f8d7ead89855a2ced7f8e76db0b5c6bdea27e0682e892d11d2af0d7cd80.png

Določimo drugi odvod:

f2_cent_točno = sym.solve(
           sym.Eq(f(x+h) + f(x-h), vsota(n=4)),   # 1 korak
           f(x).diff(x,2))[0]                     # 2.korak
f2_cent_O = f2_cent_točno.expand().getO()         # 3.korak
f2_cent_ocena = f2_cent_točno.expand().removeO()  # 4.korak

Ocena drugega odvoda je:

f2_cent_ocena
../_images/f4d02b9c7b7289d758b9ea5faf94e74206b9f7bbd572aef685dc2a886c541bd4.png

Ali:

\[y_i''=\frac{1}{h^2}\left(y_{i-1}-2\,y_{i}+y_{i+1}\right)\]

Uteži torej so:

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i-1}\)

\(y_{i}\)

\(y_{i+1}\)

\(y_i''=\frac{1}{h^2}\cdot\)

1

-2

1

Napaka metode pa je ponovno drugega reda:

f2_cent_O
../_images/919118b034b43743a94213d4a29a41281772708497d122d00de7afe6b3f67e16.png

Odvod \(f'''(x)\)#

Če želimo določiti tretji odvod, moramo Taylorjevo vrsto razviti do stopnje 5:

eq_h = sym.Eq(f(x+h)-f(x-h), razlika(n=5))
eq_h
../_images/b59256f34c5d1f21b7df31f0b603b1e859c2cd04431768435f2a08d0af51780b.png

Uporaba 1. odvoda, ki smo ga izpeljali zgoraj, nam ne bi koristila, saj je red napake \(\mathcal{O}\left(h^{2}\right)\), kar pomeni, da bi v zgornji pri deljenju s \(h^3\) dobili \(\mathcal{O}\left(h^{-1}\right)\).

Uporabimo trik: ponovimo razvoj, vendar na podlagi dodatnih točk, ki sta od \(x\) oddaljeni za \(2h\) in \(-2h\):

eq_2h = eq_h.subs(h, 2*h)
eq_2h
../_images/83ef55e404a14700050cba26f98b24a508817b5958ecc39486fec79a10be3236.png

Sedaj imamo dve enačbi in dve neznanki; sistem bomo rešili po korakih:

  1. enačbo eq_h rešimo za prvi odvod,

  2. enačbo eq_2h rešimo za prvi odvod,

  3. enačimo rezultata prvih dveh korakov in rešimo za tretji odvod,

  4. določimo napako metode,

  5. določimo oceno odvoda.

Izvedimo navedene korake:

f3_cent_točno = sym.solve(
        sym.Eq(sym.solve(eq_h, f(x).diff(x))[0],  # 1. korak
        sym.solve(eq_2h, f(x).diff(x))[0]),       # 2. korak
        f(x).diff(x,3))[0]                        # 3. korak
f3_cent_O = f3_cent_točno.expand().getO()         # 4.korak
f3_cent_ocena = f3_cent_točno.expand().removeO()  # 5.korak

Ocena 3. odvoda je:

f3_cent_ocena
../_images/11662643d87704e75600f1afe387e226a454cb9b3b12e5931c4fcf25a3908bae.png

Ali:

\[y_i'''=\frac{1}{h^3}\left(-y_{i-2}/2+y_{i-1}-y_{i+1}+y_{i+2}/2\right)\]

Uteži torej so:

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i-2}\)

\(y_{i-1}\)

\(y_{i}\)

\(y_{i+1}\)

\(y_{i+2}\)

\(y_i'''=\frac{1}{h^3}\cdot\)

-0.5

1

0

-1

0.5

Potrdimo, da je napaka metode drugega reda:

f3_cent_O
../_images/919118b034b43743a94213d4a29a41281772708497d122d00de7afe6b3f67e16.png

Odvod \(f^{(4)}(x)\)#

Ponovimo podoben postopek kot za 3. odvod, vendar za 4. odvod seštevamo Taylorjevo vrsto (do stopnje 6) naprej in nazaj:

eq_h = sym.Eq(f(x+h)+f(x-h), vsota(n=6))
eq_h
../_images/ac18da98ea6603074ac533367e7bc53d3b46830e6ea8cdf149fac4789cfdd94c.png

Pripravimo dodatno enačbo na podlagi točk, ki sta od \(x\) oddaljeni za \(2h\) in \(-2h\):

eq_2h = eq_h.subs(h, 2*h)
eq_2h
../_images/a714764c31548424ad22a685c32b856fd15fb6ffa9f2ea81c62f1d65d1cc7867.png

Iz dveh enačb določimo 4. odvod:

f4_cent_točno = sym.solve(
        sym.Eq(sym.solve(eq_h, f(x).diff(x,2))[0],  # 1. korak
        sym.solve(eq_2h, f(x).diff(x,2))[0]),       # 2. korak
        f(x).diff(x,4))[0]                          # 3. korak
f4_cent_O = f4_cent_točno.expand().getO()           # 4.korak
f4_cent_ocena = f4_cent_točno.expand().removeO()    # 5.korak

Ocena 4. odvoda je:

f4_cent_ocena
../_images/0ef22f4420460966850efe04c9869996c4ffb8332b3185b1846f7329497c2fc1.png

Ali:

\[y_i^{(4)}=\frac{1}{h^4}\left(y_{i-2}-4\,y_{i-1}+6\,y_i-4\,y_{i+1}+y_{i+2}\right)\]

Uteži torej so:

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i-2}\)

\(y_{i-1}\)

\(y_{i}\)

\(y_{i+1}\)

\(y_{i+2}\)

\(y_i^{(4)}=\frac{1}{h^4}\cdot\)

1

-4

6

-4

1

Potrdimo, da je napaka metode drugega reda:

f4_cent_O
../_images/919118b034b43743a94213d4a29a41281772708497d122d00de7afe6b3f67e16.png

Povzetek centralne diferenčne sheme*#

Zgoraj smo izpeljali prve štiri odvode z napako metode 2. reda. Bistvo zgornjih izpeljav je, da nam dajo uteži, s katerimi moramo množiti funkcijske vrednosti, da izračunamo približek določenega odvoda. Iz tega razloga bomo tukaj te uteži zbrali. Če ste neučakani, lahko skočite na tabelo spodaj. Z branjem nadaljujte, če pa želite spoznati, kako predhodno izpeljane izraze strojno uredimo.

Najprej zberimo vse ocene odvodov v seznam:

odvodi = [f1_cent_ocena, f2_cent_ocena, f3_cent_ocena, f4_cent_ocena]
odvodi
../_images/9aabdb9f5752a81563ddeaab54d089e0839bcae8975140c824ec878bdd1ae5a1.png

Na razpolago imamo 5 funkcijskih vrednosti (pri legah \(x-2h, x-h, x, x+h, x+2h\)), ki jih damo v seznam:

funkcijske_vrednosti = [f(x-2*h), f(x-h), f(x), f(x+h), f(x+2*h)]

Utež prvega odvoda za funkcijsko vrednosti \(f(x-h)\) izračunamo:

f1_cent_ocena.expand().coeff(funkcijske_vrednosti[1])
../_images/5c19f8685f6f08fe29758af67c15a08d9b640c75611f4318035ff2ef7c4e42ba.png

Sedaj posplošimo in izračunajmo uteži za vse funkcijske vrednosti in za vse ocene odvodov:

centralna_diff_shema = [[odvod.expand().coeff(fv) for fv in funkcijske_vrednosti] \
                        for odvod in odvodi]
centralna_diff_shema
../_images/c6f6af67dd9b2723986985cc66c3578128ddb4784699f5eeb663db8548128b43.png

Zgornje povzetke lahko tudi zapišemo v tabelarični obliki:

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i-2}\)

\(y_{i-1}\)

\(y_{i}\)

\(y_{i+1}\)

\(y_{i+2}\)

\(y_i'=\frac{1}{h}\cdot\)

0

-0.5

0

0.5

0

\(y_i''=\frac{1}{h^2}\cdot\)

0

1

-2

1

0

\(y_i'''=\frac{1}{h^3}\cdot\)

-0.5

1

0

-1

0.5

\(y_i^{(4)}=\frac{1}{h^4}\cdot\)

1

-4

6

-4

1

Prikazana centralna diferenčna shema ima napako 2. reda \(\mathcal{O}(h^{2})\).

Opomba: v kolikor vas zanima posplošitev diferenčne metode, prosim glejte paket findiff.

Izboljšan približek - Richardsonova ekstrapolacija#

Če je točen odvod je izračunan kot:

\[f'(x_i)=f_o'(x_i)+e,\]

kjer je \(f_o'(x_i)\) numerično izračunan odvod v točki \(x_i\) in \(e\) ocena napake.

Za metodo reda točnosti \(n\): \(\mathcal{O}(h^{n})\) pri koraku \(h\) velja:

\[f'(x_i)=f_o'(x_i, h)+K\,h^n,\]

kjer je \(K\) neznana konstanta.

Če korak razpolovimo in predpostavimo, da se \(K\) ne spremeni, velja:

\[f'(x_i)=f_o'\left(x_i, \frac{h}{2}\right)+K\,\left(\frac{h}{2}\right)^n.\]

Iz obeh enačb izločimo konstanto \(K\) in določimo izboljšan približek:

\[\overline{f}'(x_i)=\frac{2^n\,f_o'\left(x_i, \frac{h}{2}\right)-f_o'(x_i, h)}{2^n-1}\]

Zgled#

Poglejmo si zgled \(f(x)=\sin(x)\) (analitični odvod je: \(f'(x)=\cos(x)\)):

x = np.linspace(0, 2*np.pi, 9)
y = np.sin(x)

Pri koraku \(h\) imamo funkcijske vrednosti definirane pri:

x
array([0.        , 0.78539816, 1.57079633, 2.35619449, 3.14159265,
       3.92699082, 4.71238898, 5.49778714, 6.28318531])

Numerični odvod pri \(x=\pi\):

x[4]
../_images/2d9f72456ab4a8087babd6d0004d973c33824617aa24362d01151805d0c09784.png

in koraku \(h\) je

h = x[1] - x[0]
f_ocena_h = (-0.5*y[3] + 0.5*y[5])/h
f_ocena_h
../_images/eab88a604ae9462da1c12f43991d2c05eede1cb71adbdc55fce14b2709ba2533.png

Izračun pri koraku \(2h\):

h2 = x[2] - x[0]
f_ocena_2h = (-0.5*y[2] + 0.5*y[6])/h2
f_ocena_2h
../_images/c1e9135fbef07e1784bc40bb390537f61454298874ba426c9bd9ddc4a59114bc.png

Izračunajmo izboljšano oceno za \(x=\pi\):

f_ocena_izboljšana = (2**2 * f_ocena_h - f_ocena_2h)/(2**2-1)
f_ocena_izboljšana
../_images/cc3ea6ca61de57503b1f74e466e64cc6f8d6334f051c2d0c38b57aad613463d9.png

Vidimo, da je izboljšana ocena najbližje teoretični vrednosti \(\cos(\pi)=-1\).

Necentralna diferenčna shema#

Centralna diferenčna shema, ki smo jo spoznali zgoraj, je zelo uporabna in relativno natančna. Ker pa je ne moremo vedno uporabiti (recimo na začetku ali koncu tabele), si moramo pomagati z necentralnimi diferenčnimi shemami za računanje odvodov.

Poznamo:

  • diferenčno shemo naprej, ki odvod točke aproksimira z vrednostmi funkcije v naslednjih točkah in

  • diferenčno shemo nazaj, ki odvod točke aproksimira z vrednostmi v predhodnih točkah.

Izpeljave so podobne, kakor smo prikazali za centralno diferenčno shemo, zato jih tukaj ne bomo obravnavali in bomo prikazali samo končni rezultat.

Diferenčna shema naprej#

Diferenčna shema naprej z redom napake \(\mathcal{O}(h^{1})\):

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i}\)

\(y_{i+1}\)

\(y_{i+2}\)

\(y_{i+3}\)

\(y_{i+4}\)

\(y_i'=\frac{1}{h}\cdot\)

-1

1

0

0

0

\(y_i''=\frac{1}{h^2}\cdot\)

1

-2

1

0

0

\(y_i'''=\frac{1}{h^3}\cdot\)

-1

3

-3

1

0

\(y_i^{(4)}=\frac{1}{h^4}\cdot\)

1

-4

6

-4

1

Diferenčna shema naprej z redom napake \(\mathcal{O}(h^{2})\):

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i}\)

\(y_{i+1}\)

\(y_{i+2}\)

\(y_{i+3}\)

\(y_{i+4}\)

\(y_{i+5}\)

\(y_i'=\frac{1}{2h}\cdot\)

-3

4

-1

0

0

0

\(y_i''=\frac{1}{h^2}\cdot\)

2

-5

4

-1

0

0

\(y_i'''=\frac{1}{2h^3}\cdot\)

-5

18

-24

14

-3

0

\(y_i^{(4)}=\frac{1}{h^4}\cdot\)

3

-14

26

-24

11

-2

Diferenčna shema nazaj#

Diferenčna shema nazaj z redom napake \(\mathcal{O}(h^{1})\):

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i-4}\)

\(y_{i-3}\)

\(y_{i-2}\)

\(y_{i-1}\)

\(y_{i}\)

\(y_i'=\frac{1}{h}\cdot\)

0

0

0

-1

1

\(y_i''=\frac{1}{h^2}\cdot\)

0

0

1

-2

1

\(y_i'''=\frac{1}{h^3}\cdot\)

0

-1

3

-3

1

\(y_i^{(4)}=\frac{1}{h^4}\cdot\)

1

-4

6

-4

1

Diferenčna shema nazaj z redom napake \(\mathcal{O}(h^{2})\):

Odvod\(\downarrow\) \(\backslash\) Vrednosti \(\rightarrow\)

\(y_{i-5}\)

\(y_{i-4}\)

\(y_{i-3}\)

\(y_{i-2}\)

\(y_{i-1}\)

\(y_{i}\)

\(y_i'=\frac{1}{2h}\cdot\)

0

0

0

1

-4

3

\(y_i''=\frac{1}{h^2}\cdot\)

0

0

-1

4

-5

2

\(y_i'''=\frac{1}{2h^3}\cdot\)

0

3

-14

24

-18

5

\(y_i^{(4)}=\frac{1}{h^4}\cdot\)

-2

11

-24

26

-14

3

Uporaba numpy.gradient#

Za izračun numeričnih odvodov (centralna diferenčna shema 2. reda) lahko uporabimo tudi numpy.gradient() (dokumentacija):

gradient(f, *varargs, **kwargs)

kjer f predstavlja tabelo vrednosti (v obliki numeričnega polja) funkcije, katere odvod iščemo. f je lahko ene ali več dimenzij. Pozicijski parametri varargs definirajo razdaljo med vrednostmi argumenta funkcije f; privzeta vrednost je 1. Ta vrednost je lahko skalar, lahko pa tudi seznam vrednosti neodvisne spremenljivke (ali tudi kombinacija obojega). Gradientna metoda na robovih uporabi shemo naprej oziroma nazaj; parameter edge_order definira red sheme, ki se uporabi na robovih (izbiramo lahko med 1 ali 2, privzeta vrednost je 1).

Rezultat funkcije gradient je numerični seznam (ali seznam numeričnih seznamov) z izračunanimi odvodi.

Za podrobnosti glejte dokumentacijo.

Zgled#

Pogledali si bomo zgled, kako uporabimo uteži, funkcijo gradient in posebnosti na robovih. Najprej pripravimo tabelo podatkov:

x, h = np.linspace(0, 1, 20, retstep=True)
y = np.sin(2*np.pi*x)

Uteži diferenčih shem:

centralna = np.array([-0.5, 0, 0.5]) # bi lahko tudi pridobili prek central_diff_weights(3,1)
naprej = np.array([-3/2, 2, -1/2])
nazaj = np.array([1/2, -2, 3/2])

Sedaj izvedemo odvod notranjih točk (prvi način je z izpeljevanjem seznamov, drugi je vektoriziran):

odvod_notranje = np.array([y[i-1:i+2] @ centralna/h for i in range(1, len(x)-1)]) # izpeljevanje seznamov
odvod_notranje = np.convolve(y, centralna[::-1], mode='valid') / h # vektoriziran

Na robovih uporabimo diferenčno shemo naprej oziroma nazaj:

odvod_prva = y[:len(naprej)] @ naprej / h  # naprej
odvod_zadnja = y[-len(nazaj):] @ nazaj / h # nazaj

Sestavimo rezultat:

odvod_cel = np.hstack([odvod_prva, odvod_notranje, odvod_zadnja])

Prikažemo rezultat skupaj z rezultatom funkcije np.gradient:

import matplotlib.pyplot as plt
%matplotlib inline
plt.plot(x, odvod_cel, 'ko', lw=3, label='lastna implementacija')
plt.plot(x, np.gradient(y, h), 'g.', label='np.gradient, edge_order=1')
plt.plot(x, np.gradient(y, h, edge_order=2), 'r.', label='np.gradient, edge_order=2')
plt.legend();
../_images/5ced78bad797ec9050e5c943478c7f3b40d7a811f44a2b65946acf8fd1917b3e.png

Zaokrožitvena napaka pri numeričnem odvajanju*#

Zgoraj smo se osredotočili na napako metode. Pri numeričnem odvajanju pa moramo biti zelo pozorni tudi na zaokrožitveno (ali tudi upodobitveno) napako! Poglejmo si prvi odvod (po centralni diferenčni shemi) zapisan z napako metode (\(k\,h^2\)) in zaokrožitveno napako \(\varepsilon\):

\[y_i'=\frac{1}{2h}\left((-y_{i-1}\pm\varepsilon)+(y_{i+1}\pm\varepsilon)\right) + k\,h^2\]

V najslabšem primeru se zaokrožitvena napaka sešteje in je skupna napaka:

\[n=\frac{\varepsilon}{h}+k\,h^2\]

Ko je \(h\) velik prevladuje napaka metode \(k\,h^2\); ko pa je \(h\) majhen, pa prevladuje zaokrožitvena napaka. Napaka ima minimum, ko velja:

\[n'=-\frac{\varepsilon}{h^2}+2\,k\,h=0.\]

Sledi:

\[h=\sqrt[3]{\frac{\varepsilon}{2\,k}}.\]

Zgled#

Spodaj si bomo pogledali primer, kjer bomo natančnost spreminjali v treh korakih:

  1. float16 - 16-bitni zapis: predznak 1 bit, 5 bitov eksponent, 10 bitov mantisa

  2. float32 - 32-bitni zapis: predznak 1 bit, 8 bitov eksponent, 23 bitov mantisa

  3. float64 - 64-bitni zapis: predznak 1 bit, 11 bitov eksponent, 52 bitov mantisa (to je privzeta natančnost).

Za več o tipih v numpy glejte dokumentacijo

Določimo sedaj osnovno zaokrožitveno napako za posamezni tip:

eps16 = np.finfo(np.float16).eps
eps32 = np.finfo(np.float32).eps
eps64 = np.finfo(np.float64).eps
print(f'Osnovna zaokrožitvena napaka za tipe \
`float16`, `float32` in `float64` je:\n{[eps16, eps32, eps64]}')
Osnovna zaokrožitvena napaka za tipe `float16`, `float32` in `float64` je:
[0.000977, 1.1920929e-07, 2.220446049250313e-16]

Kot primer si poglejmo seštevanje: k številu 1. prištejemo polovico osnovne zaokrožitvene napake eps16 in pretvorimo v tip float16, ugotovimo, da je nova vrednost še vedno enaka vrednosti 1.:

(1.+eps16/2).astype('float16')
1.0

Definirajmo najprej funkcijo \(\exp(x)\), ki bo dala rezultat natančnosti, ki jo definira parameter dtype:

def fun(x, dtype=float): # funkcija
    return np.exp(-dtype(x)).astype(dtype)

Definirajmo še funkcijo za analitično določljiv odvod (to bomo pozneje potrebovali za določitev relativne napake):

def f1_fun(x): # "točen" odvod funkcije
    return -np.exp(-x)

Podobno kakor zgoraj pri seštevanju, lahko tudi pri vrednosti funkcije ugotovimo, da sprememba vrednosti \(x\), ki je manjša od \(\epsilon\), vodi v isti rezultat:

fun(1., dtype=np.float16)
0.368
fun(1+eps16/2, dtype=np.float16)
0.368

Uporabimo sedaj centralno diferenčno shemo za prvi odvod. Pri tem naj bodo števila zapisana z natančnostjo dtype, s pomočjo točnega odvoda pa se izračuna še relativna napaka:

def f1_CDS(fun, x, h, dtype=np.float64):
    f1_ocena = (fun(x+h, dtype=dtype)-fun(x-h,dtype=dtype))/(2*dtype(h))
    f1_točno = f1_fun(x)
    relativna_napaka = (f1_točno - f1_ocena) / f1_točno
    return f1_ocena, relativna_napaka

Poglejmo primer odvoda pri \(x=1,0\) (Python funkcija vrne vrednost in relativno napako):

f1_CDS(fun, x=1., h=.01, dtype=np.float16)
../_images/e915b6b9e0446709a7bef855c9e4c760c305661100ff1243386f1dbdeacadcda.png
f1_CDS(fun, x=1., h=.01, dtype=np.float64)
../_images/0e682d623cdf09f027c8b033629808103f300a022750bfc1f106052b288025c2.png

Definirajmo sedaj korak:

h=0.25**np.arange(30)
h[:10]
array([1.00000000e+00, 2.50000000e-01, 6.25000000e-02, 1.56250000e-02,
       3.90625000e-03, 9.76562500e-04, 2.44140625e-04, 6.10351562e-05,
       1.52587891e-05, 3.81469727e-06])

Izračunamo oceno odvodov za različne natančnosti zapisa (zaradi deljenja z 0 dobimo opozorilo):

f1_16 = f1_CDS(fun, x=1., h=h, dtype=np.float16)
f1_32 = f1_CDS(fun, x=1., h=h, dtype=np.float32)
f1_64 = f1_CDS(fun, x=1., h=h, dtype=np.float64)
C:\Users\janko\AppData\Local\Temp\ipykernel_15684\1408319698.py:2: RuntimeWarning: invalid value encountered in divide
  f1_ocena = (fun(x+h, dtype=dtype)-fun(x-h,dtype=dtype))/(2*dtype(h))

Izrišemo različne tipe v odvisnosti od velikosti koraka \(h\). Najprej uvozimo potrebne knjižnice:

import matplotlib.pyplot as plt
%matplotlib inline

Definirajmo sliko:

def fig_ocena():
    plt.semilogx(h, f1_16[0], 'b', lw=3, alpha=0.5, label='float16')
    plt.semilogx(h, f1_32[0], 'r', lw=3, alpha=0.5, label='float32')
    plt.semilogx(h, f1_64[0], 'g', lw=3, alpha=0.5, label='float64=float')
    plt.title('Ocena odvoda za različne tipe natančnosti')
    plt.xlabel('$h$')
    plt.ylabel('Ocena odvoda: $-\exp(-1)=−0.3678794$')
    plt.ylim(-0.37, -0.365)
    plt.legend();

Prikažimo jo:

fig_ocena()
../_images/69d22d4315baa222aa2530d456dfe5f16b416c7ac3da701641db5a0b28a3ada9.png

Pri relativno velikem koraku \(h\) prevladuje napaka metode, pri majhnem koraku pa zaokrožitvnea napaka; optimalni korak lahko ocenimo glede na:

\[h=\sqrt[3]{\frac{\varepsilon}{2\,k}}.\]

V konkretnem primeru velja:

\[k=-\frac{f'''(x)}{6}=-\frac{-e^{-x}}{6}=\frac{1}{6\,e}\qquad(x=1)\]

Sledi:

\[h=\sqrt[3]{3\,\varepsilon\,e}.\]

Izračunamo primeren korak za 16, 32 in 64-bitni zapis:

np.power(3*eps16*np.exp(1),1/3)
../_images/dbc8c438dd8624d39dc3a455a9e939b3f42154d9ee88b7f6bc035cf9bb3902a0.png
np.power(3*eps32*np.exp(1),1/3)
../_images/a28ff9125583cb0d0664502fbd6ac5a66b1a122e3c284270bd40697d02e87c41.png
np.power(3*eps64*np.exp(1),1/3)
../_images/9d2c51c67e4f40c52d53874d43b82d3dab2ac83ee699e9a91d2ea5995dc77aa8.png

Najbolje se izkaže 64-bitni zapis, vendar pa tudi pri tem korak manjši od cca 1e-5 ni priporočen!

Aproksimacija odvoda s kompleksnim korakom*#

Aproksimacija odvoda s kompleksnim korakom je uporabna takrat, ko imamo definirano analitično funkcijo, vendar pa nimamo na voljo analitičnega izraza za prvi odvod, za podrobnosti glejte vir. Ideja izhaja iz razvoja funkcije \(f(x)\) v Taylorjevo vrsto, vendar se izvede korak v smeri imaginarne osi \(i\,h\) (\(i=\sqrt(-1)\)):

\[f{\left(x + i\,h \right)} = f{\left(x \right)} + i\,h\,\frac{d}{d x} f{\left(x \right)} - \frac{h^{2}}{2} \frac{d^{2}}{d x^{2}} f{\left(x \right)} + O\left(h^{3}\right)\]

Če sedaj predpostavimo, da funkcija \(f(x)\) realne vrednosti slika na realno os in da sta \(x\) in \(h\) realni vrednosti, potem lahko izpeljemo:

\[\mathbf{Im} \left( f{\left(x + i\,h \right)}\right)= h\,\frac{d}{d x} f{\left(x \right)}+ O\left(h^{3}\right)\]
\[\mathbf{Re} \left( f{\left(x + i\,h \right)}\right) = f{\left(x \right)} - \frac{h^{2}}{2} \frac{d^{2}}{d x^{2}} f{\left(x \right)} + O\left(h^{3}\right)\rightarrow \mathbf{Re} \left( f{\left(x + i\,h \right)}\right) = f{\left(x \right)} + O\left(h^{2}\right)\]

Iz prve enačbe (zgoraj) potem izpeljemo izraz za prvi odvod:

\[f'{\left(x \right)}=\frac{\mathbf{Im} \left( f{\left(x + i\,h \right)}\right)}{h}+ O\left(h^{2}\right)\]

Rezultat je na nek način zelo presenetljiv. Zgoraj smo z eno koračno shemo naprej uspeli pridobiti natančnost \(O\left(h^{1}\right)\), tukaj pa \(O\left(h^{2}\right)\)!

Če pogledamo sedaj uporabo metoda na primeru od zgoraj \(\exp(-x)\), spomnimo se najprej točnega rezultata pri vrednosti \(x=1\):

f1_točno0
../_images/f7c54ce0311350b3d12ede7326031814eeab54516129b31274749d23e27c31f6.png

Pri klicu s korakom \(h=0.1\) dobimo točni dve (tri) števki (podobno kakor pri centralni diferenčni shemi), zmanjšanjem koraka na desetino pa bi število točnih števk približno podvojili:

h1_kompleksno = 0.1
y1_kompleksno = np.exp(-(1.+1.j*h1_kompleksno))
f1_kompleksno = np.imag(y1_kompleksno)/h1_kompleksno
f1_kompleksno
../_images/d623eb36dc2373afab2d6483c7b361389e102a993e9c80f311391b126e7aab1b.png

Nekaj vprašanj za razmislek!#

  1. Za batni mehanizem na spodnji sliki strojno izpeljite kinematiko gibanja bata, če se kolenasta gred giblje po zakonu \(\varphi(t)=\omega\,t\). Batni mehanizem2. Za kotno hitrosti \(\omega=2\,\pi\,50\,\)rad/s izrišite lego bata v treh obratih gredi. Uporabite: \(r=0,03\,\)m in \(l=0,1\,\)m.

  2. Simbolno odvajajte lego \(x(t)\), da pridobite pospešek \(\ddot x(t)\).

  3. Pripravite funkcijo za klicanje simbolnih izrazov za lego \(x(t)\) in pospešek \(\ddot x(t)\) iz numpy.

  4. S pomočjo scipy pripravite centralno diferenčno shemo za 2. odvod čez 3, 5, in 7 točk.

  5. Raziščite funkcijo numpy.convolve in z njo na podlagi numeričnih vrednosti za \(x\) numerično izračunajte pospešek \(\ddot x\). Kje je odvod pravilen?

  6. S centralno diferenčno shemo 2. odvoda čez tri točke ste izračunali notranje točke, nastavite diferenčno shemo naprej za izračun prve točke z natančnostjo \(\mathcal{O}(h^{2})\).

  7. Dodajte podatkom lege, določeno mero šuma in preverite, zakaj ni primerna uporaba numeričnega odvajanja na šumnih podatkih.

  8. S centralno diferenčno shemo 2. odvoda čez tri točke ste doslej izračunali notranje točke, nastavite diferenčno shemo nazaj za izračun zadnje točke z natančnostjo \(\mathcal{O}(h^{2})\).

  9. Raziščite vpliv časovnega koraka na izračun 2. odvoda.

  10. Izmerjene imamo sledeče pozicije (gibanja) avtomobila:

    \(t = [ 0. , 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1. ]\) [h]

    \(s = [0, 3, 10, 13, 17, 25, 33, 46, 58, 75]\) [km]

    Izračunajte hitrost in pospešek avtomobila pri času 0,5 h. Hitrost in pospešek prikažite tudi v grafični obliki.

Opomba: Dodatek k domačim nalogam: 6. vprašanje bi lahko nadaljevali in zašumljene podatke gladili ter nato izvedli odvajanje. Glajenje izvedite s konvolucijo med [0,21194156, 0,57611688, 0,21194156] in \(x\).

Dodatno#

Video predavanja na temo numeričnega odvajanja.