Subsecções

Filtros

Como é do conhecimento geral, filtrar consiste em selecionar elementos de um conjunto que reúnem determinadas características comuns. No caso particular do processamento do sinal, filtrar consiste em modificar as características de um sinal, passando-o através de um dispositivo chamado filtro. Estas características são em geral definidas no domínio da frequência. Assim o sinal de entrada é definido pelo seu espectro X(f ) mathend000#, definem-se em seguida as características do sinal resposta Y(f ) mathend000# que serve para determinar a função de transferência do filtro que é G(f )= Y(f )/X(f ) mathend000#.

Antes de passar à síntese de filtros propriamente dita convém primeiro caracterizar os vários sistemas em dois grandes grupos que são os sistemas sem distorção (capítulo 5.1) e os sistemas com distorção (capítulos seguintes). Os filtros enquadram-se neste último grupo que ainda se pode subdividir, para facilitar o seu estudo, em sistemas só com distorção de amplitude (capítulo 5.2) e sistemas só com distorção de fase (capítulo 5.3). Os filtros em geral são sistemas com distorção de amplitude e de fase. Dentro destes vários grandes grupos, e para clarificar as ideias, convém analisar os sistemas simples de primeira e segunda ordem. Esta análise será feita tanto no domínio do tempo como no da frequência (capítulo 5.4).

A síntese de filtros permite realizar uma função $ \hat{G}$(f ) mathend000#, aproximada de G(f )= Y(f )/X(f ) mathend000#, de forma prática e económica. A síntese de filtros pode-se dividir em três fases que são: 1) especificação das características do filtro desejado, 2) aproximação das características desejadas por um sistema causal realizável e 3) realização prática do sistema. Nos capítulos 5.6 e 5.7 sobre síntese de filtros FIR e IIR, respectivamente, insistiremos em particular na segunda fase pois a primeira é altamente dependente do utilizador e a terceira prende-se com os aspectos práticos do hardware/software disponível para a concretização do filtro.

Sistemas sem distorção

Um sistema linear é definido como sendo sem distorção quando o sinal de saída y(t) mathend000# difere do sinal de entrada x(t) mathend000# no máximo por uma constante H0 mathend000# em amplitude e um atraso t0 mathend000#, ou seja,

y(t) = H0x(t - t0). (5-1.01)
mathend000#
Calculando a TF de ambos os membros de (5-1.1) obtemos

Y($\displaystyle \omega$) = H0X($\displaystyle \omega$)exp(- j$\displaystyle \omega$t0), (5-1.02)
mathend000#
ou seja, fazendo aparecer a função de transferência entre entrada e saída,

H($\displaystyle \omega$) = $\displaystyle {{Y(\omega)}\over {X(\omega)}}$ = H0exp(- j$\displaystyle \omega$t0), (5-1.03)
mathend000#
ou através da TFI a resposta impulsiva

h(t) = H0$\displaystyle \delta$(t - t0). (5-1.04)
mathend000#
A eq. (5-1.3) indica-nos que um sistema sem distorção deverá ter uma amplificação constante em amplitude e uma característica de fase linear. A inclinação da característica de fase é igual ao atraso t0 mathend000#.

Sistemas só com distorção de amplitude

Consideremos primeiramente os sistemas de fase linear para nos podermos concentrar na distorção de amplitude. Os sistemas cujo espectro de amplitude da resposta impulsiva atingem valores muito baixos para certas gamas de frequência são chamados filtros. Se |H($ \omega$)| mathend000# tem valores muito baixos para $ \omega$ > $ \omega_{c}^{}$ mathend000# diz-se que o filtro H($ \omega$) mathend000# é um passa-baixo, e que $ \omega_{c}^{}$ mathend000# é a frequência de corte (ver figura 5.1).

truemm

Figura 5.1: sistema sem distorção de fase: filtro passa-baixo de fase linear.
\includegraphics[height=50mm]{figs/dist-amplitude.eps}

Largura de banda

Uma noção importante para caracterizar os filtros é a sua largura de banda. Entre as muitas definições utilizadas duas delas são particularmente úteis.

1) a largura de banda B$\scriptstyle \omega$ mathend000# pode ser calculada a partir da relação

B$\scriptstyle \omega$ = 2$\displaystyle \omega_{c}^{}$ = $\displaystyle {{\int_{-\infty}^{\infty} \vert H(\omega) \vert d\omega}\over H_0}$, (5-2.01)
mathend000#
onde H0 mathend000# é o valor do espectro de amplitude para $ \omega$ = 0 mathend000#.

2) outra definição muito usual é que define $ \omega_{c}^{}$ mathend000# pela relação

H($\displaystyle \omega_{c}^{}$) = $\displaystyle {{H(0)}\over {\sqrt{2}}}$. (5-2.02)
mathend000#
o que equivale a escolher $ \omega_{c}^{}$ mathend000# tal que H($ \omega_{c}^{}$) mathend000# seja igual ao valor máximo do espectro menos 3 dB.

Exemplo:

determinar a largura de banda da função definida por

|H($\displaystyle \omega$)|= $\displaystyle \cases {a^2-\omega^2, & $\vert \omega \vert < a$;\cr 0, & $\vert \omega \vert > a$.\cr}$

mathend000#

Observando que se trata de uma função par,

B$\scriptstyle \omega_{n}$ = $\displaystyle {{2\int_0^a (a^2-\omega^2) d\omega}\over {a^2}}$ = $\displaystyle {4\over 3}$a,

mathend000#

e portanto $ \omega_{c}^{}$ = $ {2\over 3}$a mathend000#.

Duração da resposta impulsiva

Outra noção importante na caracterização de filtros é a da duração Dt mathend000# da resposta impulsiva. Assim se tomarmos uma definição análoga à da largura de banda (5-2.1) obtemos que

Dt = $\displaystyle {{\int_{-\infty}^{\infty} h(\tau)d\tau}\over {h_{\rm max}}}$ = $\displaystyle {{H(0)}\over {h_{\rm max}}}$. (5-2.03)
mathend000#
Esta definição conduz a uma relação muito interessante entre Dt mathend000# e B$\scriptstyle \omega$ mathend000# que é

Dt = $\displaystyle {{2\pi}\over B_{\omega}}$. (5-2.04)
mathend000#

A demonstração desta relação obtem-se observando que a TFI da função de transferência é

h(t) = $\displaystyle {1\over {2\pi}}$$\displaystyle \int_{{-\infty}}^{{\infty}}$|H($\displaystyle \omega$)|e-j$\scriptstyle \theta$($\scriptstyle \omega$)ej$\scriptstyle \omega$td$\displaystyle \omega$, (5-2.05)
mathend000#
e utilizando o facto de que h(t) mathend000# deve ser real para um sistema realizável (o que implica que o termo em sin mathend000# é nulo), então

h(t) = $\displaystyle {1\over {2\pi}}$$\displaystyle \int_{{-\infty}}^{{\infty}}$|H($\displaystyle \omega$)|cos[$\displaystyle \omega$t - $\displaystyle \theta$($\displaystyle \omega$)]d$\displaystyle \omega$. (5-2.06)
mathend000#
A partir desta última equação deduz-se que o valor máximo da resposta impulsiva se obtem para cos[$ \omega$t - $ \theta$($ \omega$)] = 1 mathend000# o que dá

hmax = $\displaystyle {1\over {2\pi}}$$\displaystyle \int_{{-\infty}}^{{\infty}}$|H($\displaystyle \omega$)|d$\displaystyle \omega$, (5-2.07)
mathend000#
substituindo a equação (5-2.7) na definição (5-2.3) obtem-se

Dt = $\displaystyle {{H(0)}\over {{1\over {2\pi}} \int_{-\infty}^{\infty} \vert H(\omega) \vert d\omega}}$ = $\displaystyle {{2\pi}\over {B_{\omega}}}$, (5-2.08)
mathend000#
que é a relação procurada, e que indica muito simplesmente, que a duração da resposta impulsiva é inversamente proporcional à banda passante,

Dt = $\displaystyle {1\over B_f}$. (5-2.09)
mathend000#

Resposta indicial

É muitas vezes útil conhecer a resposta de um sistema a um degrau unidade (resposta indicial). Quando um sistema cuja resposta impulsiva é h(t) mathend000# é excitado por um degrau unidade, a resposta pode-se escrever

a(t) = h(t) * u(t) = $\displaystyle \int_{{-\infty}}^{{\infty}}$h($\displaystyle \tau$)u(t - $\displaystyle \tau$)d$\displaystyle \tau$, (5-2.10)
mathend000#
ou seja

a(t) = $\displaystyle \int_{{-\infty}}^{t}$h($\displaystyle \tau$)d$\displaystyle \tau$, (5-2.11)
mathend000#
o que simplesmente confirma o que já sabíamos a partir de (2-3.57), i.e., que a derivada da resposta indicial é igual à resposta impulsiva. O valor final para t$ \to$$ \infty$ mathend000# pode-se escrever a partir de (5-2.11) e da TF de h(t) mathend000# no ponto $ \omega$ = 0 mathend000# como sendo

a($\displaystyle \infty$) = $\displaystyle \int_{{-\infty}}^{{\infty}}$h($\displaystyle \tau$)d$\displaystyle \tau$ = H(0). (5-2.12)
mathend000#
Talvez o mais simples seja passar através da TF de a(t) mathend000# que é

A($\displaystyle \omega$) = H($\displaystyle \omega$)U($\displaystyle \omega$) = $\displaystyle \pi$H($\displaystyle \omega$)$\displaystyle \delta$($\displaystyle \omega$) + $\displaystyle {{H(\omega)}\over{j\omega}}$, (5-2.13)
mathend000#
cuja TFI se obtem a partir do espectro de h(t) mathend000#

a(t) = $\displaystyle {1\over 2}$$\displaystyle \int_{{-\infty}}^{{\infty}}$H($\displaystyle \omega$)$\displaystyle \delta$($\displaystyle \omega$)ej$\scriptstyle \omega$td$\displaystyle \omega$ + $\displaystyle {1\over {2\pi}}$$\displaystyle \int_{{-\infty}}^{{\infty}}$$\displaystyle {{\vert H(\omega)\vert }\over {j\omega}}$ej[$\scriptstyle \omega$(t-t0)]d$\displaystyle \omega$. (5-2.14)
mathend000#
O primeiro termo desta expressão é fácil de calcular e dá H(0) =|H(0)|e0 =|H(0)|/2 mathend000#. No segundo termo podemos considerar que h(t) mathend000# é real (e realizável) e por isso dizer que a sua TF é uma função tal que H(- $ \omega$) = H * ($ \omega$) mathend000# o que implica que desenvolvendo o segundo termo
$\displaystyle {1\over {2\pi}}$$\displaystyle \int_{{-\infty}}^{{\infty}}$$\displaystyle {{\vert H(\omega)\vert }\over {j\omega}}$ej[$\scriptstyle \omega$(t-t0)]d$\displaystyle \omega$ = $\displaystyle {1\over {2\pi}}$$\displaystyle \int_{{-\infty}}^{{\infty}}$$\displaystyle {{\vert H(\omega)\vert }\over {j\omega}}$cos[$\displaystyle \omega$(t - t0)]d$\displaystyle \omega$ +  
  + $\displaystyle {1\over {2\pi}}$$\displaystyle \int_{{-\infty}}^{{\infty}}$$\displaystyle {{\vert H(\omega)\vert }\over {j\omega}}$sin[$\displaystyle \omega$(t - t0)]d$\displaystyle \omega$  

e dado que o primeiro termo do segundo membro é ímpar e o segundo termo é par (devido à divisão por j$ \omega$ mathend000#) integrados num intervalo de [- $ \infty$,$ \infty$] mathend000# faz com que o termo em cos mathend000# seja nulo, obtendo

a(t) = $\displaystyle {{\vert H(0)\vert}\over 2}$ + $\displaystyle {1\over \pi}$$\displaystyle \int_{0}^{{\infty}}$$\displaystyle {{\vert H(\omega) \vert}\over \omega}$sin[$\displaystyle \omega$(t - t0)]d$\displaystyle \omega$.. (5-2.15)
mathend000#
Esta última relação dá-nos a(t) mathend000# em função de H($ \omega$) mathend000#. Para obter a(t) mathend000# em função de h(t) mathend000# teremos que utilizar (5-2.11) e escrever

a(t) = $\displaystyle \int_{{-\infty}}^{{t_0}}$h($\displaystyle \tau$)d$\displaystyle \tau$ + $\displaystyle \int_{{t_0}}^{t}$h($\displaystyle \tau$)d$\displaystyle \tau$, (5-2.16)
mathend000#
de onde utilizando t = t0 mathend000# em (5-2.15), que anula o termo em sin mathend000#, e o facto que H(0) = a($ \infty$) mathend000# de (5-2.12) temos que

a(t0) = $\displaystyle \int_{{-\infty}}^{{t_0}}$h($\displaystyle \tau$)d$\displaystyle \tau$ = $\displaystyle {{\vert H(0)\vert}\over 2}$ = $\displaystyle {{a(\infty)}\over 2}$. (5-2.17)
mathend000#

truemm

Figura 5.2: relação entre as respostas impulsiva h(t) mathend000# e indicial a(t) mathend000#.
\includegraphics[height=60mm,width=90mm]{figs/impulsiva-indicial.eps}

Podemos agora determinar alguns parâmetros característicos das respostas impulsiva e indicial muito úteis na caracterização de sistemas lineares. Um deste parâmetros, muito importante em análise transitória, é o tempo de subida tr mathend000# (rise-time) que é definido como sendo o tempo que o sistema demoara a chegar do estado de repouso ao valor final quando um degrau unidade é colocado à entrada. Pode-se então escrever que o tempo de subida tr mathend000# depende fortemente do declive P mathend000# da resposta indicial quando passa do valor inicial para o valor final e escrever

P = $\displaystyle {{da(t)}\over {dt}}$$\displaystyle \vert_{{t=t_0}}^{}$ = $\displaystyle {{a(\infty)-0}\over {t_r}}$ = hmax = h(t0), (5-2.18)
mathend000#
visto que hmax mathend000# é o valor de h(t = t0) mathend000#. O tempo de subida tr mathend000# é então dado por

tr = $\displaystyle {{a(\infty)}\over {h_{\rm max}}}$ = $\displaystyle {{H(0)}\over {h_{\rm max}}}$ = Dt = $\displaystyle {1\over B_f}$, (5-2.19)
mathend000#
onde Dt mathend000# é a duração da resposta impulsiva já definida anteriormente. Este resultado não é surpreendente e apenas indica que o sistema é tanto mais rápido (tr mathend000# mais pequeno) quanto menor for a duração da resposta impulsiva; por seu lado uma resposta impulsiva de menor duração implica uma resposta em frequência com uma maior banda passante como já vimos anteriormente e está bem patente em (5-2.9). A figura 5.2 mostra graficamente as relações entre a(t) mathend000# e h(t) mathend000# assim como as definições dos parâmetros característicos.

Filtro passa-baixo ideal

Um exemplo prático muito frequente de sistemas só com distorção de amplitude é o do filtro passa-baixo ideal, cuja resposta em frequência se encontra representada na figura 5.3.

Figura 5.3: filtro passa baixo ideal.
\includegraphics[height=50mm]{figs/filtro-pb-ideal.eps}
O módulo da sua função de transferência escreve-se

|H($\displaystyle \omega$)|= $\displaystyle \left\{\vphantom{
\begin{array}{ll}
H_0,& \vert \omega \vert < \omega_c,\\
0, & \vert \omega \vert > \omega_c.
\end{array} }\right.$$\displaystyle \begin{array}{ll}
H_0,& \vert \omega \vert < \omega_c,\\
0, & \vert \omega \vert > \omega_c.
\end{array}$ (5-2.20)
mathend000#
enquanto que a característica de fase é $ \theta$($ \omega$) = t0$ \omega$ mathend000# e portanto a função de transferência é

H($\displaystyle \omega$) = H0rect$\displaystyle \bigl($$\displaystyle {\omega\over {2\omega_c}}$$\displaystyle \bigr)$e-j$\scriptstyle \omega$t0, (5-2.21)
mathend000#
da qual se obtem a resposta impulsiva

h(t) = $\displaystyle {{\omega_c H_0}\over \pi}$$\displaystyle {{\sin \omega_c(t-t_0)}\over {\omega_c(t-t_0)}}$, (5-2.22)
mathend000#
e a resposta ao degrau unidade, utilizando (5-2.21) em (5-2.15) com a mudança de variável $ \tau$ = $ \omega_{c}^{}$(t - t0) mathend000#, permite-nos escrever,

a(t) = $\displaystyle {H_0\over 2}$ + $\displaystyle {H_0\over \pi}$$\displaystyle \int_{0}^{{\omega_c(t-t_0)}}$$\displaystyle {{\sin \tau}\over
\tau}$d$\displaystyle \tau$. (5-2.23)
mathend000#

Da mesma maneira, um sinal x(t) mathend000# é chamado sinal passa-baixo se X($ \omega$) = 0,  |$ \omega$|> $ \omega_{c}^{}$ mathend000#. Nesse caso a resposta do filtro H($ \omega$) mathend000# a este sinal escreve-se

Y($\displaystyle \omega$) = H($\displaystyle \omega$)X($\displaystyle \omega$) = X($\displaystyle \omega$)H0e-j$\scriptstyle \omega$t0, (5-2.24)
mathend000#
e portanto o sinal filtrado é

y(t) = H0x(t - t0), (5-2.25)
mathend000#
o que mostra o facto evidente que o sinal passa-baixo passando num filtro passa-baixo com a mesma frequência de corte não sofre distorção.

Sistemas só com distorção de fase

Consideramos agora os sistemas cuja característica de fase não é linear mas que mantêm uma característica de amplitude constante em função da frequência. No entanto, mesmo se a fase de tais sistemas já não se pode pôr sobre a forma $ \theta$($ \omega$) = $ \omega$t0 mathend000#, ela conserva de qualquer maneira o seu caracter de função ímpar, para poder representar sistemas fisicamente realizáveis. O problema da variação de fase é difícil de abordar no caso geral. Consideraremos portanto o caso em que a distorção de fase se pode representar como uma variação $ \Delta$$ \omega$ mathend000# em torno a uma fase linear. Assim a característica de fase de um tal sistema poder-se-á escrever

$\displaystyle \theta$($\displaystyle \omega$) = $\displaystyle \theta_{0}^{}$($\displaystyle \omega$) + $\displaystyle \Delta$$\displaystyle \theta$($\displaystyle \omega$), (5-3.01)
mathend000#
e a função de transferência

H($\displaystyle \omega$) =|H($\displaystyle \omega$)|e-j$\scriptstyle \theta$($\scriptstyle \omega$) =|H($\displaystyle \omega$)|e-j[$\scriptstyle \theta_{0}$($\scriptstyle \omega$)+$\scriptstyle \Delta$$\scriptstyle \theta$($\scriptstyle \omega$)], (5-3.02)
mathend000#
ou seja

H($\displaystyle \omega$) = H0($\displaystyle \omega$)e-j$\scriptstyle \Delta$$\scriptstyle \theta$($\scriptstyle \omega$), (5-3.03)
mathend000#
onde H0($ \omega$) mathend000# é a resposta em frequência de um sistema sem distorção. O tratamento clássico deste tipo de distorção faz-se considerando que $ \Delta$$ \theta$($ \omega$) $ \ll$ 1 mathend000# e então

e-j$\scriptstyle \Delta$$\scriptstyle \theta$($\scriptstyle \omega$) $\displaystyle \simeq$ 1 - j$\displaystyle \Delta$$\displaystyle \theta$($\displaystyle \omega$), (5-3.04)
mathend000#
portanto a equação do sistema transforma-se em

H($\displaystyle \omega$) $\displaystyle \simeq$ H0($\displaystyle \omega$)[1 - j$\displaystyle \Delta$$\displaystyle \theta$($\displaystyle \omega$)]. (5-3.05)
mathend000#

É comum considerar-se que a variação de fase em torno da fase linear é de tipo sinusoidal:

$\displaystyle \Delta$$\displaystyle \theta$($\displaystyle \omega$) = b sin$\displaystyle \bigl($$\displaystyle {{n\pi \omega}\over {\omega_c}}$$\displaystyle \bigr)$, (5-3.06)
mathend000#
desenvolvendo o seno em soma de exponenciais obtemos

H($\displaystyle \omega$) $\displaystyle \simeq$ H0($\displaystyle \omega$)[1 - $\displaystyle {b\over 2}$ejn$\scriptstyle \pi$$\scriptstyle \omega$/$\scriptstyle \omega_{c}$ + $\displaystyle {b\over 2}$e-jn$\scriptstyle \pi$$\scriptstyle \omega$/$\scriptstyle \omega_{c}$], (5-3.07)
mathend000#
cuja resposta impulsiva será então

h(t) $\displaystyle \simeq$ h0(t) - $\displaystyle {b\over 2}$h0(t + $\displaystyle {{n\pi}\over \omega_c}$) + $\displaystyle {b\over 2}$h0(t - $\displaystyle {{n\pi}\over \omega_c}$), (5-3.08)
mathend000#
podendo observar-se o aparecimento de dois sinais eco devido à distorção de fase.

Se a variação de fase não é pequena em relação a 1, desenvolve-se a exponencial do termo de distorção em série de Fourier no intervalo (- $ \omega_{c}^{}$,$ \omega_{c}^{}$) mathend000#. Como a fase deve ser uma função ímpar, o desenvolvimento só terá os termos em seno, de forma que

$\displaystyle \Delta$$\displaystyle \theta$($\displaystyle \omega$) = $\displaystyle \sum_{{n=1}}^{{\infty}}$Bnsin($\displaystyle {{n\pi\omega}\over\omega_c}$), (5-3.09)
mathend000#
com

Bn = $\displaystyle {2\over \omega_c}$$\displaystyle \int_{0}^{{\omega_c}}$$\displaystyle \Delta$$\displaystyle \theta$($\displaystyle \omega$)sin($\displaystyle {{n\pi\omega}\over\omega_c}$)d$\displaystyle \omega$, (5-3.10)
mathend000#
obtendo por substituição na equação da função do sistema

H($\displaystyle \omega$) = H0($\displaystyle \omega$)[J0(b) + J1(b)e$\scriptstyle {j{{\pi\omega}\over \omega_c}}$ + J-1(b)e$\scriptstyle {-j{{\pi\omega}\over \omega_c}}$ + ...], (5-3.11)
mathend000#
onde Jk(b) mathend000# é a função de Bessel de primeira espécie (ver Abramowitz [4]). Encontramos portanto uma série de ecos espaçados de $ \pi$/$ \omega_{c}^{}$ mathend000#.

Sistemas de 1a mathend000# e 2a mathend000# ordem

Antes de abordarmos a questão dos filtros convém recordar a caracterização dos sistemas mais simples, de primeira e segunda ordem, à luz dos conceitos de representação frequencial e resposta temporal.

Representação frequencial

A análise frequencial faz-se através do traçado do diagrama de Bode, i.e., aplicando um sinal sinusoidal à entrada x(t) mathend000# do sistema. Se x(t) mathend000# é sinusoidal, a saída y(t) mathend000# também vai ser sinusoidal, porém com um eventual atraso de fase e uma modificação de amplitude. Podemos então escrever a função de transferência

H($\displaystyle \omega$) = $\displaystyle {{Y(\omega)}\over {X(\omega)}}$ = A($\displaystyle \omega$)ej$\scriptstyle \phi$($\scriptstyle \omega$), (5-4.01)
mathend000#
a partir da qual o traçado de Bode se faz em dois gráficos, amplitude em dB

AdB = 20 log10|A($\displaystyle \omega$)|= f (log10$\displaystyle \omega$)

mathend000#

e fase em linear

$\displaystyle \phi$($\displaystyle \omega$) = g(log10$\displaystyle \omega$).

mathend000#

É frequente considerar intervalos de frequência correspondentes a uma oitava, quando se passa de f1 mathend000# para 2f1 mathend000# ou a uma década quando se passa de f1 mathend000# para 10f1 mathend000#. Uma das vantagens da representação de Bode consiste no facto de dois sistemas H1 mathend000# e H2 mathend000# em série poderem ser representados por um único sistema H mathend000# cujo módulo é o produto dos módulos e a fase é a soma das fases, resultando em Bode na soma dos diagramas de amplitude e na soma dos diagramas de fase (o logaritmo do produto é a soma dos logaritmos!).

Recorrendo à forma geral (3-10.3) podemos escrever a função de transferência H($ \omega$) mathend000# como

H($\displaystyle \omega$) = A($\displaystyle \omega$)ej$\scriptstyle \phi$($\scriptstyle \omega$)  
  = $\displaystyle {{\sum_{l=0}^M (-1)^{l+1} b_l (j\omega)^l}\over
{\sum_{i=0}^N (-1)^{i+1} a_i (j\omega)^i}}$  
  = $\displaystyle {{b_0+b_1(j\omega)+\ldots + b_M(j\omega)^M}\over
{a_0+a_1(j\omega)+\ldots + a_N(j\omega)^N}}$, (5-4.02)

na qual as raízes do polinómio do numerador são chamados os zeros zl mathend000# da função de transferência e as raízes do denominador são chamados os pólos pi mathend000# da função de transferência. Podemos assim escrever

H($\displaystyle \omega$) = K$\displaystyle {{\prod_{l=1}^M (j\omega-z_l)}\over {\prod_{i=1}^N (j\omega-p_i)}}$, (5-4.03)
mathend000#
a partir da qual podemos notar que mesmo que os coeficientes al mathend000# e bi mathend000# sejam reais os zeros e pólos poderão ser reais ou complexos.

Os sistemas de primeira ordem são caracterizados apenas por um único pólo ou zero reais. Os sistemas de segunda ordem têm dois pólos ou dois zeros que podem ser reais ou complexos. Existe um caso particular que é quando o sistema admite raízes nulas, zl = 0 mathend000# ou pi = 0 mathend000#. Devemos ainda considerar o caso de raízes múltiplas como seja (j$ \omega$ - zi)l mathend000# para zi$ \ne$ 0 mathend000# ou (j$ \omega$)l mathend000# quando zi = 0 mathend000#.

1) diagrama de Bode de j$ \omega$ mathend000# ou 1/j$ \omega$ mathend000#

O diagrama de Bode tipo para os sistemas com raízes nulas encontra-se representado na figura 5.4

Figura 5.4: diagrama de Bode de j$ \omega$ mathend000# e 1/j$ \omega$ mathend000#.
\includegraphics[height=90mm,width=120mm]{figs/ordem-0.eps}

Podemos facilmente deduzir que o sistema (j$ \omega$)l mathend000# terá uma inclinação em amplitude de l×20 mathend000# dB/década e uma fase que será l×90 mathend000# graus. Da mesma forma o sistema 1/(j$ \omega$)l mathend000# terá uma inclinação em amplitude de - l×20 mathend000# dB/década e uma fase que será - l×90 mathend000# graus.

2) diagrama de Bode dos sistemas de primeira ordem

O diagrama de Bode tipo para os sistemas de primeira ordem do tipo 1 + j$ \omega$T mathend000# ou 1/(1 + j$ \omega$T) mathend000# tomará a seguinte forma

|A($\displaystyle \omega$)$\displaystyle \vert_{{\rm dB}}^{}$ = 20 log10$\displaystyle \sqrt{{1+\omega^2 T^2}}$  
  $\displaystyle \approx$ $\displaystyle \cases2$0 log10$\displaystyle \omega$T (5-4.04)

ou
|A($\displaystyle \omega$)$\displaystyle \vert_{{\rm dB}}^{}$ = -20 log10$\displaystyle \sqrt{{1+\omega^2 T^2}}$  
  $\displaystyle \approx$ $\displaystyle \cases-$20 log10$\displaystyle \omega$T (5-4.05)

de onde podemos obter a representação assimptótica para sistemas de primeira ordem representada na figura 5.5.

Figura 5.5: diagrama de Bode assimptótico de sistemas de primeira ordem.
\includegraphics[height=90mm,width=120mm]{figs/ordem-1.eps}

De notar que se trata de uma representação assimptótica através de dois segmentos de recta para o módulo e três para a fase, para $ \omega$ < $ \omega_{c}^{}$ mathend000# e para $ \omega$ > $ \omega_{c}^{}$ mathend000#, onde $ \omega_{c}^{}$ = 1/T mathend000# é a pulsação de corte do sistema. O erro máximo cometido em amplitude entre a curva real e o diagrama assimptótico é de 3 dB e esse erro máximo encontra-se precisamente quando $ \omega$ = $ \omega_{c}^{}$ mathend000#. O erro máximo em fase é de cerca de ± mathend000#6 graus e é cometido a $ \omega_{c}^{}$/10 mathend000# e 10$ \omega_{c}^{}$ mathend000#.

3) diagrama de Bode dos sistemas de segunda ordem

Podem-se obter sistemas de ordem 2 ou de ordem superior por simples montagem em série de vários sistemas de primeira ordem. Como já foi dito os diagramas de Bode assimptóticos resultantes deduzem-se facilmente dos diagramas das figuras 5.4 e 5.5. O problema é diferente se as raízes não forem reais. Vejamos, a título de exemplo, o caso de um sistema de 2a mathend000# ordem com dois pólos complexos conjugados do tipo

A($\displaystyle \omega$) = $\displaystyle {K\over {(j\omega-s_1)(j\omega-s_1^{\ast})}}$  
  = $\displaystyle {K\over {-\omega^2-2j\omega \alpha_1 + \alpha_1^2+\omega_1^2}}$, (5-4.06)

onde fizemos o pólo s1 = $ \alpha_{1}^{}$ + j$ \omega_{1}^{}$ mathend000#. Definindo os coeficientes habituais $ \xi$ = - $ \alpha_{1}^{}$/$ \omega_{0}^{}$ mathend000# e $ \omega_{0}^{2}$ = $ \alpha_{1}^{2}$ + $ \omega_{1}^{2}$ mathend000# e K = $ \omega_{0}^{2}$ mathend000#, temos

A($\displaystyle \omega$) = $\displaystyle {{\omega_0^2}\over {-\omega^2+2j\omega\omega_0\xi + \omega_0^2}}$, (5-4.07)
mathend000#
onde $ \omega_{0}^{}$ mathend000# é chamada a pulsação do sistema não amortecido e 0$ \le$$ \xi$ mathend000# é o coeficiente de amortecimento. Para $ \xi$ = 0 mathend000# temos um sistema não amortecido, se $ \xi$ mathend000# for igual a 1 temos que $ \alpha_{1}^{}$ = $ \omega_{0}^{}$ mathend000# o que corresponde ao regime crítico. Se $ \xi$ > 1 mathend000# temos o regime sobre amortecido e finalmente se 0 < $ \xi$ < 1 mathend000# temos o regime sob amortecido. Para uma revisão destes vários regimes de funcionamento ver a sebenta de Análise de Circuitos, capítulo 5, [3]. Podemos então escrever o módulo da resposta em frequência

|A($\displaystyle \omega$)|= $\displaystyle {{\omega_0^2}\over {\sqrt {(\omega_0^2-\omega^2)^2+4\xi^2\omega_0^2\omega^2}}}$. (5-4.08)
mathend000#
O máximo de |A($ \omega$)| mathend000# obtem-se calculando a derivada de (5-4.8) e igualando a zero, o que permite obter (descartando a solução trivial $ \omega_{0}^{}$ mathend000#) a pulsação $ \omega_{M}^{}$ mathend000# correspondente ao máximo que é

$\displaystyle \omega_{M}^{}$ = $\displaystyle \omega_{0}^{}$$\displaystyle \sqrt{{1-2\xi^2}}$, (5-4.09)
mathend000#
que só existirá quando $ \xi$ < 1/$ \sqrt{{2}}$ mathend000# ou seja quando $ \xi$ < 0.707 mathend000#. Isto é, se 0.707 < $ \xi$ < 1 mathend000# não existe máximo, se $ \xi$ < 0.707 mathend000# então a curva do módulo tem um máximo, por vezes chamado sobre-tensão, que será tanto mais pronunciada quanto mais pequeno for o valor do coeficiente $ \xi$ mathend000#, colocando (5-4.9) na expressão do módulo

|A($\displaystyle \omega_{M}^{}$)|= AM = $\displaystyle {1\over {2\xi\sqrt{1-\xi^2}}}$. (5-4.10)
mathend000#
Além disso a frequência de ressonância $ \omega_{M}^{}$ mathend000# desloca-se em função de $ \xi$ mathend000# de acordo com a relação (5-4.9) e que será tanto mais inferior a $ \omega_{0}^{}$ mathend000# quanto maior for $ \xi$ mathend000#, tendendo ao limite para $ \omega_{0}^{}$ mathend000# quando $ \xi$ = 0 mathend000#.

Figura 5.6: diagrama de Bode de sistemas de segunda ordem para valores do coeficiente de amortecimento $ \xi$ mathend000# = 0.05, 0.25, 0.5, 0.707, 1, 2 e 4 e para uma frequência normalizada u = $ \omega$/$ \omega_{0}^{}$ mathend000#.
\includegraphics[height=90mm,width=120mm]{figs/order_2.eps}

A curva de fase obtem-se calculando o argumento da expressão (5-4.7) que se escreve

$\displaystyle \phi$($\displaystyle \omega$) = - $\displaystyle \angle${$\displaystyle \omega_{0}^{2}$ - $\displaystyle \omega^{2}_{}$ +2j$\displaystyle \xi$$\displaystyle \omega_{0}^{}$$\displaystyle \omega$}  
  = - Arctg$\displaystyle {{2\xi\omega_0\omega}\over {\omega_0^2-\omega^2}}$, (5-4.11)

que varia entre 0 e - $ \pi$ mathend000# quando $ \omega$ mathend000# varia de 0 a $ \infty$ mathend000#. A transição em torno a $ \omega_{0}^{}$ mathend000# é tanto mais brusca quanto menor for o valor de $ \xi$ mathend000#. O módulo e fase de um sistema de segunda ordem como aquele estudado até aqui encontra-se representado na figura 5.6 para vários valores do coeficiente de amortecimento $ \xi$ mathend000#.

Representação temporal

Já estudámos anteriormente a resposta temporal de vários sistemas seja a um impulso - resposta impulsiva - seja a um degrau unidade - resposta indicial.

1) sistemas de primeira ordem

A função de transferência no domínio de Laplace, por exemplo para um sistema do tipo passa-baixo, escreve-se

H(s) = $\displaystyle {K\over {1+Ts}}$, (5-4.12)
mathend000#
onde K mathend000# é uma constante real e T mathend000# é a constante de tempo, de onde podemos calcular a resposta indicial, i.e., a resposta a um sinal de entrada X(s) = 1/s mathend000#,

A(s) = $\displaystyle {K\over {s(1+Ts)}}$, (5-4.13)
mathend000#
que admite dois pólos, um em zero e o outro em -1/T mathend000#, obtendo-se uma resposta no domínio do tempo

a(t) = K(1 - e-t/T). (5-4.14)
mathend000#
Esta resposta já foi estudada extensivamente em Análise de Circuitos. Relembramos que a tangente na origem tem inclinação K/T mathend000#, que a(T) = 2/3K mathend000# e que o tempo de subida tr mathend000#, para o qual é atingido 95% do valor final, é tr $ \approx$ 3T mathend000#.

2) sistemas de segunda ordem

Utilizando a mesma técnica para um sistema de segunda ordem de função transferência

H(s) = $\displaystyle {{\omega_0^2}\over {s^2+2\xi\omega_0 s+\omega_0^2}}$, (5-4.15)
mathend000#
cuja resposta indicial, para X(s) = 1/s mathend000#, admite três pólos, um igual a zero e dois complexos conjugados

s1, 2 = - $\displaystyle \xi$$\displaystyle \omega_{0}^{}$±j$\displaystyle \omega_{0}^{}$$\displaystyle \sqrt{{1-\xi^2}}$. (5-4.16)
mathend000#
permitindo a seguinte decomposição em fração racional da resposta A(s) mathend000# ao degrau unidade

A(s) = A/s + $\displaystyle {B\over {s-s_1}}$ + $\displaystyle {{B^{\ast}}\over {s-s_2}}$ (5-4.17)
mathend000#
onde, obviamente, s2 = s1 * mathend000#. O cálculo dos coeficientes permite-nos deduzir
A = 1,  
B = - $\displaystyle {{\sqrt{1-\xi^2}-j\xi}\over {2\sqrt{1-\xi^2}}}$,  

de onde substituindo em (5-4.17) e fazendo a TLI se obtém a relação temporal da resposta indicial

a(t) = 1 - $\displaystyle {{e^{-\xi\omega_0 t}}\over {\sqrt{1-\xi^2}}}$[$\displaystyle \xi$sin($\displaystyle \omega_{0}^{}$t$\displaystyle \sqrt{{1-\xi^2}}$) + $\displaystyle \sqrt{{1-\xi^2}}$cos($\displaystyle \omega_{0}^{}$t$\displaystyle \sqrt{{1-\xi^2}}$)]. (5-4.18)
mathend000#
Fazendo $ \xi$ = cos$ \phi$ mathend000# e $ \sqrt{{1-\xi^2}}$ = sin$ \phi$ mathend000# e utilizando a relação sin(a + b) = sin a cos b + sin b cos a mathend000#, temos que a resposta indicial se pode escrever

a(t) = 1 - $\displaystyle {{e^{-\xi\omega_0 t}}\over {\sqrt{1-\xi^2}}}$sin($\displaystyle \omega_{0}^{}$t$\displaystyle \sqrt{{1-\xi^2}}$ + $\displaystyle \phi$), (5-4.19)
mathend000#
Figura 5.7: reposta indicial num sistema de segunda ordem para vários valores de $ \xi$ mathend000#=0.05, 0.25, 0.5, 0.707 e 0.95.
\includegraphics[height=60mm,width=100mm]{figs/ordem_2_t.eps}
tratando-se de uma resposta oscilatória que ultrapassa o valor final é importante calcular o valor máximo e as abcissas dos máximos e mínimos (ver figura 5.7). Estes obtem-se derivando a(t) mathend000# e igualando a zero

$\displaystyle {{da(t)}\over {dt}}$ = $\displaystyle \xi$$\displaystyle \omega_{0}^{}$$\displaystyle {{e^{-\xi\omega_0 t}}\over {\sqrt{1-\xi^2}}}$sin($\displaystyle \omega_{0}^{}$t$\displaystyle \sqrt{{1-\xi^2}}$ + $\displaystyle \phi$) - $\displaystyle {{e^{-\xi\omega_0 t}}\over {\sqrt{1-\xi^2}}}$cos($\displaystyle \omega_{0}^{}$t$\displaystyle \sqrt{{1-\xi^2}}$ + $\displaystyle \phi$)$\displaystyle \omega_{0}^{}$$\displaystyle \sqrt{{1-\xi^2}}$ = 0, (5-4.20)
mathend000#
implica que

$\displaystyle \xi$sin($\displaystyle \omega_{0}^{}$t$\displaystyle \sqrt{{1-\xi^2}}$ + $\displaystyle \phi$) = cos($\displaystyle \omega_{0}^{}$t$\displaystyle \sqrt{{1-\xi^2}}$ + $\displaystyle \phi$)$\displaystyle \sqrt{{1-\xi^2}}$, (5-4.21)
mathend000#
onde, dado os valores de $ \phi$ mathend000# permite escrever

tan($\displaystyle \omega_{0}^{}$$\displaystyle \sqrt{{1-\xi^2}}$tp + $\displaystyle \phi$) = tan$\displaystyle \phi$, (5-4.22)
mathend000#
que por sua vez implica

$\displaystyle \omega_{0}^{}$$\displaystyle \sqrt{{1-\xi^2}}$tp = k$\displaystyle \pi$, (5-4.23)
mathend000#
onde tp mathend000# corresponde ao(s) instante(s) dos máximo(s)/mínimo(s) que se obtem para valores inteiros de k mathend000# e directamente como sendo

tp = $\displaystyle {{\pi}\over {\omega_0\sqrt{1-\xi^2}}}$, (5-4.24)
mathend000#
para k = 1 mathend000#, primeiro máximo e por substituição em (5-4.19) obtem-se o valor máximo da resposta nesse instante

ap = 1 + exp($\displaystyle {{-\xi\pi}\over {\sqrt{1-\xi^2}}}$). (5-4.25)
mathend000#
A partir destas duas últimas equações podemos ver que quanto menor for o valor do coeficiente de amortecimento $ \xi$ mathend000#, mais rápida será a resposta do sistema, tp mathend000# pequeno, mas por outro lado a ultrapassagem do valor final é maior, ap mathend000# mais elevado em relação a 1. Isto pode ser verificado graficamente na figura 5.8

Figura 5.8: valor da ultrapassagem do primeiro máximo da resposta indicial de um sistema de ordem 2, em percentagem (%) do valor final em função do coeficiente de amortecimento $ \xi$ mathend000#.
\includegraphics[height=60mm,width=100mm]{figs/ap_ordem2.eps}

Podemos agora tecer algumas considerações sobre as relações entre as respostas temporal e frequencial. Relembremos os valores das respostas indiciais calculados nos dois últimos capítulos, em frequência

$\displaystyle \cases{\omega_M=\omega_0\sqrt{1-\xi^2}\cr
A_M={1\over {2\xi\sqrt{1-\xi^2}}},\cr}
$ (5-4.26)
mathend000#
e no tempo

$\displaystyle \cases{t_p = {{\pi}\over {\omega_0\sqrt{1-\xi^2}}}\cr
a_p = 1 + \exp({{-\xi\pi}\over {\sqrt{1-\xi^2}}}),\cr}
$ (5-4.27)
mathend000#
portanto podemos concluir que um valor pequeno de $ \xi$ mathend000#, digamos inferior a 0.4 resulta numa forte sobretensão e numa forte ultrapassagem do valor final da resposta temporal. Simultaneamente obtem-se um sistema que responde rapidamente no tempo e que tem uma banda passante estreita na frequência, trata-se por isso de um sistema relativamente selectivo. Existe por isso uma relação estreita entre as respostas frequencial e temporal e o conhecimento tanto de uma como da outra permitem determinar os coeficientes do sistema.

Existe um valor particular $ \xi$ = 0.425 mathend000# para o qual se obtem uma sobretensão de 2.3 dB e uma ultrapassagem de 20% da resposta indicial, que é normalmente aceitável na prática.

Generalidades sobre a síntese de filtros

Caracterizando a resposta em frequência do filtro por G(f )= Y(f )/X(f ) mathend000#, e uma vez calculada a função G(f ) mathend000#, trata-se em seguida de nos assegurarmos que esta é praticamente realizável por um sistema invariante e ``económico''. Para que o sistema seja realizável é necessário que ele seja causal e estável. Isto é, que num tal sistema, o sinal de saída não poderá preceder o sinal de entrada, e que para um sinal de entrada de energia finita, o sinal de saída também deverá ser de energia finita. Por outro lado, é também necessário que o número de operações seja finito, e que a resposta em frequência seja o mais próxima possível daquela desejada.

Esquematizando, pode-se dizer que os filtros digitais se classificam em dois grandes grupos:

  • filtros de resposta impulsiva finita (FIR, finite impulse response)
  • filtros de resposta impulsiva infinita (IIR, infinite impulse response)

No caso dos filtros FIR o sinal resposta do filtro obtém-se através de uma equação de convolução discreta do tipo (2-3.41) mas com um número finito de termos N mathend000# correspondente à duração da resposta impulsiva do filtro e onde h[n] mathend000#, x[n] mathend000# e y[k] mathend000# são versões discretas da resposta impulsiva do filtro e dos sinais de entrada e de saída respectivamente. Faz ainda parte do tipo de filtros FIR o método da síntese de Fourier. A ideia consiste em transformar o sinal do domínio do tempo para o domínio da frequência, multiplicá-lo pelo filtro, e fazer em seguida uma transformada inversa de novo para o domínio temporal para obter o sinal resposta. Neste caso, a função de transferência não é modificada por erros devidos à limitação da resposta impulsiva ou erros de arredondamento. No entanto, este tipo de implementação sofre dos problemas de limitação temporal do sinal quando da transformação tempo para frequência e vice-versa. Estes problemas foram discutidos abundantemente no capítulo anterior e não serão retomados aqui.

Pelo seu lado, os filtros IIR são geralmente implementados através de uma equação do tipo de (2-7.4) que é uma forma recursiva do sinal de saída y(t) mathend000# e que não faz nenhuma hipótese de limitação na duração da resposta impulsiva do sistema. O cálculo do filtro resume-se à determinação da ordem N mathend000# e M mathend000# das partes AR e MA do filtro e do cálculo dos coeficientes an mathend000# e bm mathend000#, de modo a que a função de transferência obedeça à equação (3-10.2).

Antes de analisarmos os métodos de síntese para os filtros FIR e IIR devemos determinar os tipos de filtros que pretendemos realizar e quais os parâmetros que os caracterizam. Como acabámos de dizer, em geral, os filtros são caracterizados pela sua resposta em frequência G(f ) mathend000#. Assim podem ser classificados pelas funções ideais passa-baixo, passa-alto, passa-banda e corta-banda. Acabámos de definir as características e os tipos de filtros ideais, ou seja, aqueles que na banda passante deixam passar tudo sem alteração e cortam absolutamente tudo na banda de corte. Como sabemos tais filtros não são realizáveis, e teremos que definir quais os valores máximos de desvio que se podem admitir entre a realização ideal e a realização prática. Assim somos levados a definir quantidades como por exemplo: oscilação na banda passante, oscilação na banda de corte, largura da banda de transição, etc... Noutras palavras, deveremos definir uma margem de tolerância em torno aos valores ideais que constituem os valores máximos e mínimos a não ultrapassar (figura 5.9).

truemm

Figura 5.9: margens de tolerância na síntese de filtros.
\includegraphics[width=100mm]{figs/gabarito-filtros.eps}

Síntese de filtros FIR

A implementação prática dos filtros FIR faz, em geral, apelo à equação de convolução no caso discreto. Este tipo de implementação é possível porque o número de amostras da resposta impulsiva do filtro é tornado finito. A síntese dos filtros FIR faz-se através da resolução da TFI da função G(f ) mathend000#. As principais vantagens destes filtros é que são estáveis e causais. São estáveis se todos os valores da resposta impulsiva g(t) mathend000# são < $ \infty$ mathend000# e causais se g(t) = 0 mathend000# para t < 0 mathend000#. Temos portanto três casos possíveis segundo a forma do filtro G(f ) mathend000#:

a)
se G(f ) mathend000# tem uma forma cuja TF inversa se pode calcular analiticamente com um número finito de amostras, então obtém-se a forma discreta g[k] mathend000# de g(t) mathend000# e efectua-se a filtragem por convolução discreta com o sinal de entrada utilizando (2-3.41).

b)
se a forma de G(f ) mathend000# não é tratável analiticamente, então temos de recorrer à amostragem em frequência para discretizar G(f )$ \to$G[n] mathend000# e poder aplicar uma TF discreta inversa (i.e. a versão discreta em frequência de (3-3.7)) para obter a forma de g[k] mathend000# com um número finito de amostras que será, nesse caso, igual ao comprimento da TF discreta (número de amostras no intervalo [- 1/2T, 1/2T] mathend000#). Uma vez que obtivemos g[k] mathend000# de duração L mathend000# a filtragem faz-se, como anteriormente, por convolução com o sinal de entrada. O problema põe-se ao nível da qualidade da aproximação de G(f ) mathend000# por G[n] mathend000#. Pode-se demonstrar que se obtém uma relação de aproximação entre G(n) mathend000# e G(f ) mathend000# do tipo

G(f )= $\displaystyle {{j\pi f(1-L)}\over L}$$\displaystyle \sum_{{n=-L/2}}^{{L/2-1}}$G(n)$\displaystyle {{\sin \pi fL}\over {\sin \pi (f-n/L)}}$e-j$\scriptstyle \pi$n/L, (5-6.01)
mathend000#
demonstrando-se então que a função de interpolação dá um erro de aproximação nulo às frequências n/L mathend000# e finito entre essas frequências.

c)
por último, temos o caso no qual a equação que define G(f ) mathend000# é matemáticamente tratável mas a resposta impulsiva necessita um número infinito de amostras. Este é o caso mais comum quando a forma de G(f ) mathend000# é a de um dos filtros ideais. Já vimos que neste caso a limitação da duração de g(t) mathend000# corresponde ao problema da limitação da duração de um sinal ilimitado. Aplica-se então toda a teoria das funções de observação (ou janelas) de diversos tipos segundo a forma de g(t) mathend000# e o G(f ) mathend000# desejado. Vamos supôr que o filtro desejado é um passa baixo ideal é Gi(f ) mathend000# dado por

Gi(f )= $\displaystyle \cases{1 \cdot e^{j2\pi f\alpha}, & $\vert f \vert \le f_c$\cr 0, & outro valor de $f$\cr}
$ (5-6.02)
mathend000#
onde fc mathend000# é a freqência de corte e $ \alpha$ mathend000# é uma constante de fase, o que implica que o filtro é de fase linear. A resposta impulsiva do filtro ideal escreve-se como a TFI em tempo discreto de Gi(f ) mathend000#,
gi[n] = $\displaystyle \int_{{-1/2}}^{{1/2}}$Gi(f )ej2$\scriptstyle \pi$fndf  
  = $\displaystyle \int_{{-f_c}}^{{f_c}}$1 . e-j2$\scriptstyle \pi$f$\scriptstyle \alpha$ej2$\scriptstyle \pi$fndf  
  = $\displaystyle {{\sin[2\pi f_c(n-\alpha)]}\over {\pi (n-\alpha)}}$. (5-6.03)

Na prática, para obter um filtro FIR a partir da resposta impulsiva gi[n] mathend000# esta tem que ser limitada no tempo, i.e., vamos ter que trabalhar com uma resposta impulsiva real, tal que

g[n] = gi[n]w[n], (5-6.04)
mathend000#
onde w[n] mathend000# é chamada a função ou janela de observação. Como uma multiplicação no domínio do tempo corresponde a uma convolução no domínio da frequência podemos escrever (5-6.4)
G(f ) = Gi(f ) $\displaystyle \otimes$ W(f )  
  = $\displaystyle \int_{{-1/2}}^{{1/2}}$W($\displaystyle \lambda$)Gi(f - $\displaystyle \lambda$)d$\displaystyle \lambda$, (5-6.05)

onde o símbolo $ \otimes$ mathend000# significa convolução circular dado que, como já vimos, Gi(f ) mathend000# é uma função periódica a convolução também terá que ser periódica, ou seja, efectua-se no intervalo principal [- 1/2, 1/2] mathend000# e depois repete-se nos intervalos [1/2, 3/2] mathend000#, [3/2, 5/2] mathend000#, etc... Torna-se fácil avaliar analiticamente esta expressão de convolução porque Gi(f ) mathend000# é um filtro ideal. Algumas observações de ordem geral:
  1. por definição W(f ) mathend000# é a TF de uma função discreta limitada a L mathend000# amostras e por isso terá um pico principal cuja largura é proporcional a 1/L mathend000# e picos laterais de menor amplitude (tipo sin x/x mathend000#),
  2. a convolução periódica (5-6.5) tem como efeito produzir uma versão desfocada de Gi(f ) mathend000#,
  3. o pico principal de W(f ) mathend000# tem como efeito criar uma banda de transição em Gi(f ) mathend000#, cuja largura vai depender da largura do pico principal, i.e., quanto menor for L mathend000# maior será a largura do pico principal (proporcional a 1/L mathend000#) e maior será também a banda de transição do filtro G(f ) mathend000# resultante,
  4. os picos laterais de W(f ) mathend000# resultam em oscilações equivalentes na banda passante e na banda de corte, que serão tanto maiores quanto maiores forem os picos laterais (em relação ao pico principal),
ao limite poderemos dizer que se L mathend000# tendesse para infinito, W(f ) mathend000# tenderia para um dirac na frequência e teríamos G(f )= Gi(f ) mathend000#. Passaremos em revista mais abaixo algumas das funções de observação mais utilizadas.

Na grande maioria dos casos as características definidas para um certo filtro dizem sómente respeito ao espectro de amplitude |G(f )| mathend000#. Assim a síntese do filtro faz-se livremente no que diz respeito à fase e, como é evidente, tenta-se sempre que a distorção de fase seja a menor possível, ou por outras palavras, tenta-se que o filtro tenha uma característica de fase linear $ \theta$(f )= t0f mathend000#. Para isso o filtro deve obedecer a uma condição do tipo

Gl(f )= G(f )e-j$\scriptstyle \theta$(f), (5-6.06)
mathend000#
onde G(f ) mathend000# deve ter uma característica de fase nula $ \forall$f mathend000#. Para que a característica de fase seja nula é necessário e suficiente que a parte imaginária de G(f ) mathend000# seja ela mesma nula. Ora isto só é possível se g(t) mathend000# for uma função par ou seja se

g(t) = g(- t),        para  |t|$\displaystyle \le$$\displaystyle {T\over 2}$. (5-6.07)
mathend000#
Como o filtro que obedece a (5-6.7) não é causal, porque tem metade da sua resposta impulsiva para t < 0 mathend000#, então temos de o deslocar de T/2 mathend000# no sentido de t > 0 mathend000#. Assim como um atraso temporal se transforma numa diferença de fase em frequência, obtem-se que

$\displaystyle \theta$(f )= 2$\displaystyle \pi$fT/2, (5-6.08)
mathend000#
que é uma equação linear em f mathend000#. Tal condição permite não só obter um sistema que não introduz distorção de fase mas também, tendo em conta a simetria (5-6.7), economizar metada das operações quando da convolução de g(t) mathend000# com o sinal de entrada - ou mais precisamente da sua forma discreta g[k] mathend000#.

Não falaremos aqui do último tipo de implementação possível de um filtro FIR que é a implementação recursiva através de uma equação do tipo (2-3.41) pois isto será discutido no próximo capítulo quando da discussão da síntese dos filtros IIR.

Função de observação rectangular

Para o caso de uma janela rectangular que permita obter um filtro estável e causal teríamos um função de observação

w[n] = $\displaystyle \cases{1, & $0 \le n \le M-1$\ \cr 0, & outro valor de $n$\cr}
$ (5-6.09)
mathend000#
cuja resposta em frequência é

W(f )= $\displaystyle {{\sin (\pi f M)}\over {\sin (\pi f)}}$e-j$\scriptstyle \pi$f(M-1), (5-6.10)
mathend000#
onde o termo de fase é devido ao facto de termos uma janela causal. Obviamente trata-se de uma função sinc em frequência. Neste caso a convolução circular expressa em (5-6.5) escreve-se

G(f )= $\displaystyle \int_{{-1/2}}^{{1/2}}$$\displaystyle {{\sin (\pi \lambda M)}\over {\sin (\pi \lambda)}}$e-j$\scriptstyle \pi$$\scriptstyle \lambda$(M-1)Gi(f - $\displaystyle \lambda$)d$\displaystyle \lambda$. (5-6.11)
mathend000#
Se o filtro ideal Gi(f ) mathend000# for, por exemplo, do tipo passa baixo na banda [- fc, fc] mathend000# podemos reduzir o integral (5-6.11), considerando apenas a amplitude3, a

GA(f ) $\displaystyle \approx$ $\displaystyle \int_{{-1/2}}^{{f+f_c}}$$\displaystyle {{\sin (\pi \lambda M)}\over {\sin (\pi \lambda)}}$d$\displaystyle \lambda$, (5-6.12)
mathend000#
tal que f + fc$ \le$1/2 mathend000#, o que implica -1/2 + fc$ \le$f$ \le$1/2 + fc mathend000#. Assim (5-6.12) permite-nos obter um valor cumulativo da resposta em frequência independente do filtro desejado. A figura 5.10 mostra a função de observação rectangular no tempo (a), em amplitude na frequência (b), em dB também na frequência (c) e finalmente a resposta cumulativa na frequência (d) para um valor de M = 45 mathend000# amostras. Pode-se ver que:
Figura 5.10: janela de observação rectangular: no tempo (a), resposta em amplitude na frequência (b) resposta em dB (c) e cumulativa em dB (d), para M = 45 mathend000#
\includegraphics[height=70mm,width=100mm]{figs/ampresrc.eps}
  1. a resposta de amplitude em frequência tem o seu primeiro zero para f = 1/M mathend000# e portanto a largura da banda de transição é aproximadamente o dobro, i.e., $ \Delta$f = 2/M mathend000#;
  2. o primeiro pico lateral encontra-se aproximadamente a f = 3/2M mathend000# e por isso, substituindo na amplitude de (5-6.10), obtem-se o valor da atenuação nesse ponto que é de aproximadamente 2M/3$ \pi$ mathend000#. Dividindo este valor pelo valor do máximo, que é igual a M mathend000#, obtem-se a atenuação entre o máximo e o primeiro pico lateral que vem a ser 2/3$ \pi$ $ \approx$ 0.2122 = 13 mathend000# db, e que se pode ver na figura 5.10(c), e finalmente
  3. na figura 5.10(d) pode-se ver que a atenuação entre a banda passante e a banda de atenuação é de cerca de 21 dB.

Sendo a função rectangular a janela de observação mais simples e natural, como filtro ela contém algumas características indesejáveis / insuficientes no que diz respeito à implementação de filtros. Em particular no que diz respeito à atenuação na banda passante que é de apenas 21 dB, insuficiente em muitas aplicações. Além da função de observação rectangular existem outras funções de observação que permitem obter melhores resultados. Nos capítulos seguintes passamos em revista as funções de observação mais usuais e resumimos no quadro 1 as suas principais características. Podemos notar que, em geral, um aumento da atenuação na banda de corte encontra-se acompanhada de um aumento da banda de transição o que, na prática, torna a escolha da função de observação um compromisso entre estes dois factores. Esta lista de funções de observação não é exaustiva. O Matlab contém uma série destas funções pré-programadas.


Tabela 1: tabela comparativa de janelas de observação temporais: principais características.
Nome Banda de transição atenuação na
  ( ×fs mathend000# Hz) banda de corte (db)
Rectangular 0.9/M mathend000# 21
Bartlett 3.05/M mathend000# 25
Hanning 3.1/M mathend000# 44
Hamming 3.3/M mathend000# 53
Blackman 5.5/M mathend000# 74


Função de observação de Bartlett

Esta função resulta da convolução de duas funções rectangulares e permite obter uma transição mais suave de 0 para 1 do que a função rectangular. A função de Bartlett escreve-se

w[n] = $\displaystyle \cases{ {{2n}\over {M-1}}, & $0 \le n \le {{M-1}\over 2}$\cr
2-{{2n}\over {M-1}}, & ${{M-1}\over 2} \le n \le M-1$\cr
0, & para outro $n$,\cr}
$ (5-6.13)
mathend000#
A figura 5.11 mostra a função de observação de Bartlett no tempo (a), em amplitude na frequência (b), em dB também na frequência (c) e finalmente a resposta cumulativa na frequência (d) para um valor de M = 45 mathend000# amostras.
Figura 5.11: janela de observação de Bartlett: no tempo (a), resposta em amplitude na frequência (b) resposta em dB (c) e cumulativa em dB (d), para M = 45 mathend000#.
\includegraphics[height=70mm,width=100mm]{figs/ampresbr.eps}

Função de observação de Hanning

Neste caso a função de observação no tempo escreve-se

w[n] = $\displaystyle \cases{ 0.5[1-\cos({{2\pi n}\over {M-1}})], & $0 \le n \le M-1$\cr
0, & para outro $n$,\cr}
$ (5-6.14)
mathend000#
A figura 5.12 mostra a função de observação de Hanning no tempo (a), em amplitude na frequência (b), em dB também na frequência (c) e finalmente a resposta cumulativa na frequência (d) para um valor de M = 45 mathend000# amostras.
Figura 5.12: janela de observação de Hanning: no tempo (a), resposta em amplitude na frequência (b) resposta em dB (c) e cumulativa em dB (d), para M = 45 mathend000#.
\includegraphics[height=70mm,width=100mm]{figs/ampreshn.eps}

Função de observação de Hamming

Neste caso a função de observação no tempo escreve-se

w[n] = $\displaystyle \cases{ 0.54-0.46\cos({{2\pi n}\over {M-1}})], & $0 \le n \le M-1$\cr
0, & para outro $n$,\cr}
$ (5-6.15)
mathend000#
A figura 5.13 mostra a função de observação de Hamming no tempo (a), em amplitude na frequência (b), em dB também na frequência (c) e finalmente a resposta cumulativa na frequência (d) para um valor de M = 45 mathend000# amostras.
Figura 5.13: janela de observação de Hamming: no tempo (a), resposta em amplitude na frequência (b) resposta em dB (c) e cumulativa em dB (d), para M = 45 mathend000#.
\includegraphics[height=70mm,width=100mm]{figs/ampreshm.eps}

Função de observação de Blackman

Neste caso a função de observação no tempo escreve-se

w[n] = $\displaystyle \cases{ 0.42-0.5\cos({{2\pi n}\over {M-1}})] + 0.08\cos({{4\pi n}\over {M-1}}), & $0 \le n \le M-1$\cr
0, & para outro $n$,\cr}
$ (5-6.16)
mathend000#
A figura 5.14 mostra a função de observação de Blackman no tempo (a), em amplitude na frequência (b), em dB também na frequência (c) e finalmente a resposta cumulativa na frequência (d) para um valor de M = 45 mathend000# amostras.
Figura 5.14: janela de observação de Blackman: no tempo (a), resposta em amplitude na frequência (b) resposta em dB (c) e cumulativa em dB (d), para M = 45 mathend000#.
\includegraphics[height=70mm,width=100mm]{figs/ampresbl.eps}

Síntese de filtros IIR

A síntese de filtros IIR retira a sua metodologia dos métodos clássicos de síntese de filtros analógicos com a adequada transposição para o caso discreto. A implementação dos filtros IIR utiliza a equação de diferenças (2-3.41). Para que o filtro seja realizável é necessário, mais uma vez, que ele seja causal e estável, ou seja, que

g(t) = 0,        t < 0 (5-7.01)
mathend000#
e que

$\displaystyle \int_{0}^{{\infty}}$|g(t)|dt < $\displaystyle \infty$. (5-7.02)
mathend000#
A função de transferência G(f ) mathend000# possui M mathend000# pólos e N mathend000# zeros que são respectivamente os zeros do denominador e do numerador. Para que o filtro seja estável é necessário que os pólos de G(f ) mathend000# estejam no interior do círculo unidade.

A metodologia a aplicar na síntese de filtros IIR reside na transposição dos filtros analógicos para filtros digitais. Nessa transformação é necessário que o eixo imaginário do plano j$ \omega$ mathend000# passe para o círculo unidade do plano exp(j$ \omega$T) mathend000# e que o meio-plano esquerdo do plano j$ \omega$ mathend000# passe para o interno do círculo unidade do plano exp(j$ \omega$T) mathend000#. Estas duas condições garantem que um filtro analógico estável se traduza por um filtro digital estável. Os filtros analógicos mais conhecidos são os filtros de Butterworth (5.7.1), os filtros de Chebyshev (5.7.2) e os filtros elípticos (5.7.3). Por outro lado a passagem de uma função contínua de $ \omega$ mathend000# para uma função discreta fará intervir um processo de amostragem que só será tratado no programa de Processamento Digital de Sinal.


Filtros Butterworth

Os filtros de Butterworth são especificados de modo a terem uma função de transferência com o mínimo de oscilações tanto na banda passante como na banda de corte. O módulo quadrado da resposta em frequência do filtro que obedece a esta especificação escreve-se

|H($\displaystyle \omega$)$\displaystyle \vert^{2}_{}$ = $\displaystyle {1\over {1+({\omega\over \omega_c}})^{2N}}$, (5-7.03)
mathend000#
onde N mathend000# é a ordem do filtro e $ \omega_{c}^{}$ mathend000# é a frequência de corte passa-baixo equivalente. De notar que a partir de (5-7.3) temos que |H($ \omega_{c}^{}$)|= 1/$ \sqrt{2}$ mathend000# e |H(0)|= 1 mathend000#. Além disso, a inclinação de |H($ \omega$)| mathend000# para $ \omega$ > $ \omega_{c}^{}$ mathend000# é proporcional a (1/$ \omega$)N mathend000#. A figura 5.15 mostra o módulo das respostas em frequência dos filtros de Butterworth numa escala linear e para valores de N = 3 mathend000# e N = 4 mathend000#.

Figura 5.15: resposta em frequência filtros Butterworth para N = 3 mathend000# e N = 4 mathend000#.
\includegraphics[height=70mm,width=100mm]{figs/butterworth.ps}


Filtros Chebyshev

No caso dos filtros de Chebyshev, pode-se obter uma maior inclinação entre a banda passante e a banda de corte, autorizando uma banda de transição mais estreita, tendo de ``pagar'' por isso uma maior oscilação da resposta em frequência na banda passante ou de corte. Os filtros de Chebyshev podem ser de dois tipos: tipo I - com oscilações só na banda passante ou tipo II - só com oscilações na banda de corte, conforme exemplificado na figura 5.16.

Figura 5.16: resposta em frequência dos filtros Chebyshev tipo I e II
\includegraphics[height=70mm,width=100mm]{figs/chebyshev.ps}

O módulo ao quadrado da resposta em frequência é, neste caso, dada por

|G(fa)$\displaystyle \vert^{2}_{}$ = $\displaystyle {1\over {1+\mu^2 T_K^2(f_a)}}$,        $\displaystyle \mu$  real < 1 (5-7.04)
mathend000#
onde TK(fa) mathend000# é o polinómio de Chebyshev de ordem K mathend000# para a frequência normalizada fa = f /fc mathend000#, dado por

TK(fa) = $\displaystyle \left\{\vphantom{
\begin{array}{ll}
\cos(K {\rm arcos} 2\pi f_a...
...\cosh (K{\rm arcosh} 2\pi f_a),& \vert f_a \vert \ge 1/2,
\end{array} }\right.$$\displaystyle \begin{array}{ll}
\cos(K {\rm arcos} 2\pi f_a),& 0 \le \vert f_a...
...1/2\\
\cosh (K{\rm arcosh} 2\pi f_a),& \vert f_a \vert \ge 1/2,
\end{array}$ (5-7.05)
mathend000#
e que se pode calcular recursivamente,

TK+1(x) = 2xTK(x) - TK-1(x), (5-7.06)
mathend000#
com T0(x) = 1 mathend000# e T1(x) = x mathend000#. Como TN(1) = 1 mathend000# para todo os valores de N mathend000#, temos que o módulo ao quadrado para f = fc mathend000# é igual a

|G(1)$\displaystyle \vert^{2}_{}$ = $\displaystyle {1\over {1+\mu^2}}$, (5-7.07)
mathend000#
equação que, a partir do valor da atenuação a $ \omega$ = $ \omega_{c}^{}$ mathend000# permite deduzir $ \mu$ mathend000#.

Figura 5.17: resposta em frequência de filtros elípticos
\includegraphics[height=60mm,width=100mm]{figs/elipt.ps}


Filtros elípticos

Os filtros elípticos permitem obter a mais rápida transição entre a banda passante e a banda de corte. Estes filtros tem oscilações controladas (valor máximo especificado pelo utilizador) tanto na banda passante como na de corte (figura 5.17). O módulo ao quadrado da resposta em frequência é, neste caso, dada por

|H($\displaystyle \omega_{c}^{}$)$\displaystyle \vert^{2}_{}$ = $\displaystyle {1\over {1+\epsilon^2 U_N^2(\omega/\omega_c)}}$, (5-7.08)
mathend000#
onde UN($ \omega$) mathend000# é uma função elíptica Jacobiana de ordem N mathend000#. Não faremos aqui uma explicação aprofundada sobre as funções elípticas e em vez disso dirigiremos o leitor para referências na matéria, como por exemplo [4], ou para pacotes de software de cálculo científico tipo MATLAB e/ou MATEMATICA. truemm
Sergio Jesus 2008-12-30