Koliko znam interpolacija "pogadja" vrijednosti koje fale kad oversempliramo, i to nikako ne moze biti isto kao kad bi semplirali nesto na vecoj frekvenciji.
Ako ima razlike, i ako interpolacija ne utjece na kvalitetu zvuka koji je onda smisao dizanja frekvencije pomoću interpolacije (npr. kada u nekom editoru stavimo da digne frekvenciju vec snimljenog zuvka)?
Resampling (interpolacija/ekstrapolacija) u principu unosi izoblicenja koja mogu da budu
u cujnom opsegu. U tu svrhu se inace relativno prost algoritam mora praviti daleko
komplikovanijim.
U principu je downsampling uvek komplikovaniji, zato sto se mora prvo uraditi
antialiasing low-pass filtriranje, kako bi se eliminisale frekventne komponente izvan
Nyquist-ovog limita, koji pada na polovinu nove ucestanosti semplovanja (Fs/2). Ako
se to preskoci, izoblicenja pri vrhu spektra su sasvim izvesna - moze se izracunati gde
tacno padaju.
Razlozi da se pribegava resampling-u su najcesce:
- potreba za miksovanjem signala koji su semplovani na razlicitim ucestanostima, pa ih
sve treba dovesti na zajednicko Fs
- neki medijumi (audio CD na primer) imaju striktne zahteve u vezi Fs (44.1kHz),
tako da sve sto nije semplovano na toj ucestanosti mora da se resampluje.
[Ovu poruku je menjao milanche dana 23.11.2005. u 16:56 GMT+1]
Pitanje: vidio sam da se interpolacija radi na onako X razlictih matematickih i ostalih nacina. Kako to da ima toliko nacina za "jednostavno pogadjanje medjutocaka" da se tako izrazim. Mislim ak je x sekundi izmedju prve i druge tocke onda na pola dode tocka koja fali (to je linearna interpolacija ak se ne varam). Kuzim isto da ta tocka ne mora uvijek doc na pola, pa predpostavljam da zato ima vise tih funkcija, right?