Cos'è ElectroYou | Login Iscriviti

ElectroYou - la comunità dei professionisti del mondo elettrico

13
voti

Approfondimenti sul rumore bianco

Indice

Introduzione

In un mio precedente articolo avevo descritto per sommi capi la costruzione di un semplicissimo generatore di rumore bianco. Ciò ha sollevato da parte dei lettori diverse domande e richieste di chiarimenti; pertanto ho deciso di scrivere questo articolo avente come finalità:
1) Una trattazione teorica dell'analisi in termini probabilistici dei segnali e nella fattispecie del rumore.
2) Diversi esempi applicativi pratici che mostrano come si può sfrutttare un generatore di rumore avente caratteristiche ben definite.

Per quanto concerne il punto 1), oltre ad esporre un po' di teoria ma senza appesantire troppo la trattazione (altrimenti diventerebbe un corso sulla teoria dei segnali!) mostrerò degli esempi pratici tratti dall'utilizzo congiunto del mio generatore di rumore bianco e di un oscilloscopio digitale, nella fattispecie un Tektronix 7854.

Per chi desiderasse replicare gli esperimenti che via via proporrò è tassativo l'utilizzo di un oscilloscopio digitale che consenta di manipolare le forme d'onda ovvero calcolarne valore medio ed efficace, addizionare o sottrarre valori a una forma d'onda, eseguire sulla forma d'onda le più svariate operazioni matematiche onde poter ottenere una forma d'onda modificata e salvarla in memoria eccetera.
In alternativa si può utilizzare l'eventuale software in dotazione all'oscilloscopio che consenta di scaricare le forme d'onda acquisite sul proprio PC per poi manipolarle successivamente.

1 - Rumore, istogrammi e funzioni di probabilità

Iniziamo col riproporre due screenshot del rumore bianco che avete avuto modo di osservare nel mio precedente articolo.
Nella prima foto abbiamo l'andamento del rumore bianco nel dominio del tempo, campionato a 50uS/div per 512 campioni totali (non ho esagerato con la risoluzione in orizzontale per non appesantire troppo i calcoli che svolgeremo in seguito).

WhiteNoiseWithTek7854

WhiteNoiseWithTek7854

Nella seconda foto abbiamo un istogramma:

HistogramWIthTek7854

HistogramWIthTek7854

1.1 - Segnali discreti, media, deviazione standard, varianza

Non potendo prevedere che il mio articolo sul generatore di rumore bianco potesse avere un seguito, non mi sono premurato di salvare l'istogramma originale visibile nella foto precedente. Ho percò provveduto a rigenerarne uno simile salvandolo questa volta in memoria assieme ad altri parametri significativi e utili alla sua interpretazione.

Ecco un nuovo istogramma, creato con gnuplot e con le scale correttamente rappresentate:

histogram2

histogram2

Come si vede è molto simile a quello precedente che, ricordo, è una fotografia dello schermo del 7854 che ha generato da solo l'istogramma partendo dai campioni acquisiti nel dominio del tempo.

Dal segnale acquisto nel dominio del tempo ho subito ricavato, sfruttando le funzioni già presenti sul 7854, il suo valore picco-picco, il suo valore medio (mean) e la sua deviazione standard, che valgono rispettivamente:


V_{P-P} = 884.8 \, mV \quad(1)


\mu = -7.547 \, mV \quad(2)


\sigma = 141.4 \, mV \quad(3)


Supponiamo di avere un segnale campionato da un convertitore A/D da 8 bit e di acquisirne 512 campioni: il segnale potrà assumere uno tra i 256 possibili valori, da 0 a 255; esso è quello che si definisce un segnale discreto in ampiezza. Ovviamente esso è anche discretizzato nel tempo, dato che viene ottenuto tramite campionamenti a intervalli regolari.

Approfondiamo meglio questo concetto.
Immaginiamo di avere un segnale analogico continuo nel tempo. È continuo sia nel tempo che nell'ampiezza.
Con l'operazione di campionamento si ottengono campioni discreti ogni Ts secondi. Otteniamo quindi campioni discreti (discreti nel tempo), ognuno dei quali può assumere un valore continuo (in ampiezza).
Questo è normalmente indicato come segnale discreto (discreto nel tempo ma continuo in ampiezza).

Successivamente si prende questo segnale discreto e lo si quantizza, ad esempio assegnando ciascun campione che assume un'ampiezza continua a uno degli N livelli di quantizzazione discreti di un quantizzatore: il segnale totale ora è un segnale digitale.
Un segnale digitale è discreto nel tempo e discreto in ampiezza. Per i nostri scopi assumeremo che il segnale sia discreto nel tempo (campionato a intervalli regolari) tralasciando per ora la quantizzazione delle ampiezze.

Facciamo ora un riepilogo e un approfondimento sui concetti di media, varianza, deviazione standard, utili a schiarci definitivamente le idee.

Molti di voi (non) si saranno accorti che esistono due differenti modi di calcolare la deviazione standard.

Ricordiamo innanzitutto che la media è data da:


\mu = \sum_{i=0}^{N-1} x_i\quad(4)

La deviazione standard si può calcolare così:

\sigma = \sqrt{ {1\over{N-1}}{\sum_{i=0}^{N-1} (x_i-\mu)^2} }\quad(5)

oppure così:


\sigma = \sqrt{ {1\over{N}}{\sum_{i=0}^{N-1} (x_i-\mu)^2} }\quad(6)

Media e deviazione standard, come facciamo a sapere se ci si riferisce alle statistiche di un segnale reale o alle probabilità del processo sottostante che ha creato il segnale? L'unico modo per capirlo è il contesto.
Nell'analisi statistica dei segnali è facile confondersi e scambiare una misura stimata per una cosa totalmente differente. Ad esempio, l'istogramma e la PMF - Probability Mass Function - (discussi nella sezione successiva) sono concetti corrispondenti a cui vengono dati nomi separati.

Torniamo all’Eq. (5), calcolo della deviazione standard; questa equazione si dovrebbe dividere per N-1 nel calcolo della media delle deviazioni quadrate, anziché semplicemente per N. Per capire perché è così, immaginiamo di voler trovare la media e la deviazione standard di un processo che genera il nostro segnale elettrico.
A tal fine, si acquisisce un segnale di N campioni dal processo e si calcola la media del segnale tramite l'Eq.(4).
Possiamo quindi utilizzarlo come stima della media del processo sottostante; tuttavia, si verificherà un errore dovuto al rumore statistico.
In particolare, per segnali casuali, l’errore tipico tra la media degli N punti, e la media del processo sottostante (a cui è andato sovrapponendosi del rumore, poco o molto che sia), è dato da:


Errore\ tipico = {\sigma\over{N^{1/2}}}\quad(7)

Se N è piccolo, il rumore statistico nella media calcolata sarà molto ampio: detto altrimenti, non si ha accesso a dati sufficienti per caratterizzare adeguatamente il processo.
Maggiore è il valore di N, minore diventerà l'errore previsto e un cardine della teoria della probabilità, la Legge Forte dei Grandi Numeri ci garantisce che l’errore diventa zero quando N tende a infinito.
Nel passaggio successivo, vorremmo calcolare la deviazione standard del segnale acquisito e utilizzarla come stima della deviazione standard del processo sottostante: e qui sorge il problema.

Se vogliamo calcolare la deviazione standard utilizzando l'Eq.(6), dobbiamo conoscere la media, μ; tuttavia, noi non conosciamo la media del processo sottostante, ma solamente la media del segnale di N punti, che contiene un errore dovuto al rumore statistico (notate la sottigliezza quasi metafisica di tutto ciò).
Questo errore tende a ridurre il valore calcolato della deviazione standard; per compensare ciò, N è sostituito da N-1. Tale sostituzione è nota come Correzione di Bessel.
Se N è grande, la differenza non ha importanza. Se N è piccolo, questa sostituzione fornisce un valore più accurato.

Di fatto questa correzione al denominatore fa sì che il σ calcolato utilizzando il fattore (N-1) sia maggiore rispetto a quello ottenuto dividendo semplicemente per N, correggendo così la tendenza di σ a sottostimare le incertezze, soprattutto nel caso in cui si lavori con pochi dati (N "piccolo"; nelle applicazioni pratiche, si considera "piccolo" un campione formato da meno di 30 elementi).

Questo ovviamente non è il nostro caso, dato che possiamo agevolmente acquisire centinaia o migliaia (e oltre) di campioni; anche il più scarso degli strumenti permette di acquisire e memorizzare centinaia di migliaia di campioni.
Come utilizzarli correttamente è un altro discorso...

1.2 - Istogrammi e "bins"

Tramite il Tek7854 abbiamo ottenuto un istogramma, che viene riproposto qui per comodità del lettore.

histogram2

histogram2

Ma cosa rappresenta realmente, e come si ottiene in pratica?

Un istogramma è una rappresentazione avente come ascissa i valori quantizzati del segnale e in ordinata il numero di campioni che hanno quel particolare valore. Indicheremo con M il numero di punti in ascissa e con N il numero di campioni. Vale la relazione:


N = \sum_{i=0}^{M-1} H_i \quad(8)

dove con Hi indichiamo il valore di quella particolare "colonna" dell'istogramma, cioè il numero di campioni corrispondenti a quel particolare valore. E' abbastanza ovvio che la somma di tutti i valori Hi deve corrispondere al numero totale di campioni, N.

Nel nostro particolare caso M = 25. Se sommiamo i valori di ogni sezione dell'istogramma (che per comodità sono riportati in cima a ogni colonna) otteniamo, come prevedibile, 512 che è appunto il numero di campioni acquisiti.

Riguardo l'istogramma però c'è una importante precisazione da fare. Ricordiamo che avevamo ottenuto il valore picco-picco del segnale acquisito (equazione (1) ); ciò sigifica che il segnale campionato assume, in maniera casuale, valori di ampiezza compresi tra V_{MIN}=-429.7\,mV e V_{MAX}=455.1\,mV, valori gentilmente fornitici gia' pronti dal 7854, senza dover misurare a occhio la traccia sul CRT (comodi gli oscilloscopi digitali quando serve). Essendo dei numeri reali in floating point, come anche i valori di ampiezza di tutti i campioni acquisiti, sorge un problema.

Nel calcolo dell'istogramma il numero di valori che ciascun campione può assumere è molto maggiore del numero di campioni nel segnale e ciò è sempre vero per i segnali rappresentati in notazione a virgola mobile, dove ogni campione viene memorizzato come valore frazionario.
Ad esempio, la rappresentazione intera potrebbe richiedere che il valore del campione sia 3 o 4, mentre la virgola mobile consente milioni di possibili valori frazionari compresi tra 3 e 4.

L'approccio descritto in precedenza per il calcolo dell'istogramma prevede il conteggio del numero di campioni che hanno un numero finito di possibili valori, ma ciò non è possibile con i dati in virgola mobile perché ci sono miliardi di possibili livelli che dovrebbero essere presi in considerazione.
Ancora peggio, quasi tutti questi possibili livelli non avrebbero campioni corrispondenti.
Ad esempio, immaginiamo un segnale di 10.000 campioni, con ciascun campione avente un miliardo di valori possibili: l'istogramma convenzionale consisterebbe di un miliardo di punti dati dei quali cui solo 10.000 avrebbero un valore diverso da zero!

La soluzione a questi problemi è una tecnica chiamata binning.
Questo viene fatto selezionando arbitrariamente la dimensione dell'asse x dell'istogramma in modo che sia un numero conveniente, come 1000 punti, spesso chiamati bins, contenitori.
Il valore di ciascun bin rappresenta il numero totale di campioni del segnale che hanno un valore compreso in un determinato intervallo.
Ad esempio, immaginiamo un segnale in virgola mobile che contenga valori da 0.0 a 10.0 e un istogramma con 1000 bin; il bin 0 nell'istogramma è il numero di campioni nel segnale con un valore compreso tra 0 e 0.01, il bin 1 è il numero di campioni con un valore compreso tra 0.01 e 0.02 e così via, fino al bin 999 contenente il numero di campioni con un valore compreso tra 9.99 e 10.0.

La suddivisione dei campioni in 25 bins nel nostro caso è una scelta di opportunità, ma nel caso di un numero di campioni acquisiti nel tempo che possono assumere un numero grandissimo di valori (al limite infinito) diventa una necessità.

Raggruppando i dati come sopra decritto, si ottengono due nuove equazioni per calcolare media e varianza, che divengono più facili e veloci da calcolare:


\mu = {1\over N}\sum_{i=0}^{M-1} iH_i \quad(9)

si badi bene che i nel nostro caso rappresenta il valore medio del bin, che ora rappresenta un intervallo e non più un valore singolo. Il nostro istogramma che stiamo utilizzando come esempio pratico ha la scala delle ascisse calibrata in questo modo: ecco perché i valori sono tutti "strani", non i tipici multipli e/o sottomultipli di interi, float o comunque numeri facilmente leggibili!


\sigma^2 = {1\over{N-1}} { \sum_{i=0}^{M-1} (i-\mu)^2 H_i }\quad(10)

Ma quanti bin possiamo avere? Ovviamente non si può scegliere un numero "a occhio" o a casaccio. Le immagini seguenti chiariscono meglio la situazione di mille parole. Abbiamo un segnale composto da 300 campioni e ogni campione è un numero in virgola mobile avente un valore compreso tra 1.0 e 3.0:

ExampleSIgnal1.jpg

ExampleSIgnal1.jpg

Nella figura seguente ricaviamo un istogramma utilizzando 601 bin:

ExampleSignal1With600Bins

ExampleSignal1With600Bins

E infine un istogramma utilizzando solamente 9 bin:

ExampleSignal1With9Bins

ExampleSignal1With9Bins

Come si può vedere, utilizzando un numero eccessivo di bin si ha una risoluzione sull'asse verticale praticamente inservibile: non si riconosce più un andamento di tipo gaussiano.
Al contrario, utilizzando un numero troppo piccolo di bin, si ha una scarsa risoluzione sull'asse x, anche se si riconosce, seppur, vagamente, un andamento di tipo gaussiano.

In pratica, il numero di bin va scelto in modo da ottenere un buon compromesso tra la risoluzione sull'asse y e quella sull'asse x.

Con un po' di pazienza possiamo utilizzare l'equazione (9) e calcolarci da soli la media del segnale utilizzando i dati dell'istogramma: otteniamo -7.554\, mV che è in ottimo accordo con il valore dell'espressione (2), che era il valore medio che l'oscilloscopio aveva calcolato utilizzando direttamente i valori campionati!

Cosa ci dice questo valore? Che il mio generatore di rumore bianco ha un offset in uscita di -7.554\, mV; il datasheet riporta un valore tipico per la tensione di offset in ingresso di 0.8\, mV. Dato che l'amplificatore è di tipo invertente con guadagno 10, i conti tornano.

1.3 - Istogrammi e PMF (Probability Mass Function)

L'istogramma ottenuto mostra inequivocabilmente un andamento a campana, tipico gaussiano.
Occorre però precisare che l'istogramma ancora non rappresenta una distribuzione di probabilità. Occorre procedere alla sua normalizzazione, che avviene in due fasi.

Dividiamo dapprima il valore di ogni bin per il numero totale di campioni (in questo caso 512). Così facendo l'andamento dell'istogramma resta invariato, ma ora ogni bin avrà un valore compreso tra 0 e 1:

histogram3PMF

histogram3PMF

Sommando tutti i numeri in cima alle colonne otteniamo (a meno di errori di arrotondamento) esattamente il valore 1.
La scala delle ascisse è da intendersi in mV.

L'istogramma così ottenuto è una rappresentazione stimata della cosiddetta Probability Mass Function, conosciuta anche con l'acronimo PMF.

La PMF è importante perché descrive la probabilità che venga generato un determinato valore.
Ad esempio, prendiamo il nostro segnale generato dal generatore di rumore bianco. Qual è la probabilità che un campione di questo segnale abbia un valore pari a +120 mV? La figura precedente fornisce la risposta, 0,0547, ovvero circa 1 possibilità su 18.
Qual è la probabilità che un campione scelto casualmente abbia un valore maggiore di +150 mV? Sommando i valori della PMF partendo dalla colonna di valore 154.268 e procedendo verso destra fino all'ultima colonna, si ottiene la risposta, 0.1643, ovvero circa 1 possibilità su 6. Pertanto, ci si aspetterebbe che il segnale abbia un valore superiore a 150 mV in media ogni 6 punti.
Qual è la probabilità che un campione sia compreso tra -429.7 mV e +455.1 mV? La somma di tutti i valori nell'istogramma produce la probabilità di 1.00, la certezza che ciò accadrà.

Pensare alla probabilità come a una massa aiuta a evitare errori poiché la massa fisica viene conservata così come la probabilità totale per tutti i risultati ipotetici X (che vale 1).

Di seguito vi è un altro istogramma, identico al precedente ma con evidenziati gli intervalli di σ:

histogram3PMFwithSigma

histogram3PMFwithSigma


1.3 - Da PMF a pdf (probability density function)

Dividendo i valori dei singoli istogrammi per il numero totale di campioni abbiamo ottenuto la PMF del nostro segnale. Ma possiamo procedere oltre: se prendiamo i valori dell'istogramma della PMF e li dividiamo ciascuno per il suo intervallo corrispondente (non il valore medio centrale di ogni colonna) otteniamo un nuovo grafico, in cui l'andamento della curva non è cambiato, ma questa volta in ordinate abbiamo dei valori che non sembrano avere molto senso:

histogram3PDFwithSigma

histogram3PDFwithSigma

Quella appena ottenuta è una visualizzazione stimata dell'andamento della probability density function.
Attenzione: la definizione pdf di un segnale casuale o meno, vale solo per segnali continui. Quella che otteniamo dall'istogramma è una sua stima, ma in realtà la pdf è sempre una funzione continua di una variabile continua.

Prima che rimaniate un po' sorpresi dai valori che assume la pdf, spesso maggiori di 1, vi informo che ciò è assolutamente normale. Perché?

Innanzitutto perché siamo in presenza di una densità di probabilità: l'asse verticale è espresso in unità di densità di probabilità, non semplicemente la probabilità.
Per chiarire meglio le idee, ecco una tipica pdf di un segnale random continuo (non campionato):

ProbabilityDensityOfRealRandomSignal.jpg

ProbabilityDensityOfRealRandomSignal.jpg

Come si vede è una funzione continua che si estende da -\infty a +\infty e ha come peculiarità (ricordo che stiamo parlando di una distribuzione di probabilità di tipo gaussiano!) 
\begin{array}{l}\int_{-\infty }^{\infty}f(x)\ dx=1\end{array}
Cioè l'area complessiva compresa tra la curva e l'asse orizzontale delle ascisse vale 1.

La formula che descrive la distribuzione di tipo Gaussiano (anche conosciuta come distribuzione normale) è:


P(x) = { {1\over{\sqrt{2\pi}\sigma}} e^{\frac{-(x-\mu)^2}{2\sigma^2} } }  \quad(11)

Seguono tre possibili grafici di una curva gaussiana: la prima é quella "grezza", cioè non normalizzata con μ e σ; la seconda e la terza sono realizzate con valori di μ e σ differenti.

GaussianRawShapeNoNormalization

GaussianRawShapeNoNormalization

GaussianShapeNormalized1

GaussianShapeNormalized1

GaussianShapeNormalized2

GaussianShapeNormalized2

Un'altra rappresentazione, questa volta a colori per meglio evidenziare alcuni aspetti della curva gaussiana:

Standard_deviation_diagram

Standard_deviation_diagram

Una caratteristica della gaussiana é che decade molto rapidamente; per esempio a due, quattro o sei deviazioni dalla media il valore della curva gaussiana scende rispettivamente a circa 1/19, 1/7563 e 1/166.666.666.

A questo punto occorre una precisazione molto importante: l'asse verticale della pdf è espresso in unità di densità di probabilità, non probabilità.
Prendiamo come riferimento il grafico seguente di un segnale casuale come il nostro solito white noise:

ProbabilityDensityOfRealRandomSignal.jpg

ProbabilityDensityOfRealRandomSignal.jpg

Una pdf di 0,03 a 120,5 non significa che una tensione di 120,5 millivolt si verificherà nel 3% delle volte. In effetti, la probabilità che il segnale continuo sia esattamente 120,5 millivolt è infinitamente piccola.
Questo perché esiste un numero infinito di valori possibili che il segnale potrebbe assumere in quel particolare istante: 120.49997, 120.49998, 120.50001, ecc..: la possibilità che il segnale sia esattamente 120.50000... è davvero molto remota!

Per calcolare una probabilità utilizzando la pdf, la densità di probabilità va moltiplicata per un intervallo di valori.
Ad esempio, la probabilità che il segnale, in un dato istante, sia compreso tra i valori 120 e 121 è: (121 - 120) x 0,03 = 0,03 (calcolato a occhio dal grafico).
La probabilità che il segnale sia compreso tra 120,4 e 120,5 è: (120,5 - 120,4) x 0,03 = 0,003, ecc.
Se la pdf non è costante nell'intervallo di interesse, la moltiplicazione diventa l'integrale della pdf in tale intervallo. In altre parole, l'area sotto il pdf delimitata dai valori specificati.
Poiché il valore del segnale deve avere comunque un valore, l'area totale sotto la curva pdf, l'integrale da -∞ a +∞, sarà sempre uguale a uno. Ciò è analogo al fatto che la somma di tutti i valori della PMF vale 1 e che la somma di tutti i valori dell'istogramma di partenza è N.

1.4 - Rumore bianco e distribuzione gaussiana: la confusione

E' importante ribadire che un rumore con distribuzione di ampiezza (tensione) di tipo gaussiano non ha necessariamente una densità spettrale di potenza uniforme (white noise) e viceversa. Pdf e densità spettrale sono indipendenti.

Dire "il rumore bianco ha una distribuzione gaussiana" è completamente sbagliato.
Il "colore" di un segnale di rumore si riferisce a come la potenza è distribuita nel dominio della frequenza. Il rumore bianco ha la stessa potenza per una data larghezza di banda a tutte le frequenze in un intervallo specificato.
Tuttavia, la probabilità di misurare una particolare tensione (o corrente) è una misura completamente ortogonale. Può essere qualsiasi cosa, da una distribuzione uniforme (uguale probabilità di qualsiasi tensione data all'interno di un intervallo) a triangolare fino a qualsiasi tipo di distribuzioni statistiche, come quella di Poisson o gaussiana.

1.5 - Qualche esempio pratico coi numeri

Ricapitoliamo: la deviazione standard è una misura di quanto il segnale si discosta (fluttua) dalla media; la varianza rappresenta la potenza di questa fluttuazione.
Un termine con cui dovreste avere familiarità è il valore efficace (root-mean-square, RMS), spesso utilizzato in elettronica. Per definizione, la deviazione standard misura solo la porzione AC di un segnale, mentre il valore efficace misura sia la componente AC che quella DC.
Se un segnale non ha componente continua, il suo valore efficace è identico alla sua deviazione standard. Lo avevamo già visto nel mio precedente articolo!

E' interessante vedere la relazione tra la deviazione standard σ e il valore picco-picco di alcuni segnali:

VppToSigmaRelationship

VppToSigmaRelationship

Nel nostro specifico caso, il nostro segnale ha σ = 141.4mV (vedi formula (3)). Se lo moltiplichiamo per 6 otteniamo un valore di 848.4mVPP mentre il valore calcolato dal 7854 è di 884.8mV. Il tutto utilizzando un semplice istogramma. Sorprendente vero?

Un valore di o anche di 6.6σ è comunemente utilizzato dagli ingegneri per stimare il valore picco-picco di un segnale casuale.

2 - Caratterizzazione del generatore di rumore

Il generatore di rumore descritto nel mio precedente articolo genera del rumore bianco di tipo gaussiano-additivo (AWGN); ma é possibile ottenere qualche informazione in più esaminadolo più a fondo? Certamente sì. Vediamo come.

2.1 - La distribuzione spettrale con il 3L5 spectrum analyzer e misura del rumore

Si era già detto che il mio generatore di rumore bianco ha un'estensione spettrale da 1Hz a 100 kHz circa. E' opportuno conoscere con certezza la banda del rumore se desideriamo fare un po' di calcoli.

Si è collegato il generatore di rumore all'analizzatore di spettro inserendo anche una terminazione da 600Ω; essendo l'impedenza di uscita del generatore anch'essa di 600 ohm, si ottiene un correttto adattamento di impedenza.
Ciò significa anche che la massima potenza erogabile dal generatore viene trasferita sul carico di uscita.

Impostando sull'analizzatore di spettro CENTER FREQUENCY=100 kHz, DISPERSION = 10kHz, RESOLUTION BANDWIDTH = 1kHz, SWEEP TIME = 5 s/div otteniamo questa immagine:

PowerSpectrumWith3L5.jpg

PowerSpectrumWith3L5.jpg

Essa rapprensenta lo spettro del rumore. Come si vede è essenzialmente piatto: con le scale utilizzate l'intero sweep ha un'estensione di 100 kHz (da 50 kHz a 150 kHz) e ha una frequenza di taglio di circa 120 kHz (due divisioni a destra rispetto al centro); la scala verticale è lineare, non logaritmica, ed è di 1mVRMS / div.
Si può vedere come l'ampiezza nella prima metà dello schermo sia approsimativamente - in media - di 5.5 divisioni, cioè di 5.5 mV. La frequenza di taglio a -3dB si ottiene quando l'ampiezza decresce a {5.5\over \sqrt 2}=3.9 divisioni: si ha una frequenza di taglio di 120-125 kHz. Useremo il valore di 120 kHz nei calcoli successivi, senza preoccuparci della precisione dato che il grafico è di per sé abbastanza incerto! Questo perché per un analizzatore di spettro analogico del tipo swept front-end ha, per svariati motivi che non approfondiremo qui, difficoltà a rappresentare correttamente i livelli di tensione (o potenza) di un segnale di tipo random. Si può applicare un fattore di correzione che dipende dal tipo di rilevatore del segnale (un rilevatore di inviluppo) che è implementato nello strumento. Nel caso del 3L5 è di tipo voltage doubler peak detector: esso serve ad ottenere una dinamica sufficiente per le scale logaritmiche, ma a noi interessa sapere che è del tipo rilevatore di picco.

Lo strumento é ovviamente calibrato in funzione del tipo di rilevatore, e fornisce risultati molto precisi per segnali, diciamo, "normali". Le cose vanno diversamente se si pretende di analizzare ampiezze assolute di segnali composti esclusivamente da rumore; esiste comunque una procedura di calibrazione, abbastanza noiosa e che non sto qui a descrivere. In alternativa, sacrificando la precisione, si possono ottenere letture precise entro il 5% dei valori visualizzati, applicando un fattore di correzione di 1.2 (si moltiplica cioè il valore letto di ampiezza verticale dello spettro per 1.2).
Beninteso lo strumento rende possibili, senza applicare fattori correttivi, misure relative di ampiezza, come appunto quella che abbiamo eseguito per determinare la frequenza di taglio.

Per determinare correttamente la densità spettrale del segnale, va tenuto conto della banda di risoluzione, che è di 1000 Hz. Possiamo quindi determinare la tensione di rumore per unità di frequenza:


{{{5.5 \cdot 10^{-3}} \cdot 1.2}\over{\sqrt{1\cdot 10^3}}} \approx 208 \mu V/{\sqrt{Hz}}
Moltiplicando questo valore per la radice quadrata della banda passante del rumore (120 kHz) otteniamo come risultato un valore di 72 mV RMS.

Per confronto, utilizzando l'oscilloscopio 7854 in modalità digitale ottengo un valore della tensione di uscita del generatore compresa tra 68 e 72 mV RMS, in ottimo accordo con il valore desunto dallo spettro.

72mVRMS dissipano sul carico da 600 ohm una potenza di


{ (72\cdot {10^{-3})^2 }\over 600} = 8.64 \mu W

corrispondenti a -20 dBm circa, che è anche la massima potenza erogabile dal generatore di rumore.

2.2 - Misure col rumore

Molte sono le possibili applicazioni di un generatore di rumore.
Abbiamo già visto che un suo utilizzo è la caratterizzazione della risposta in frequenza di un dispositivo (filtro, amplificatore, ecc..) che però risulta conveniente solo se si dispone di un analizzatore di spettro moderno che consenta di effettuare misure precise, cioè digitale; in tal modo è possibile ottenere una rappresentazione della risposta in frequenza abbastanza precisa.

Va da sé che se si dispone di un tracking generator si ottiene lo stesso risultato con (molta) meno fatica e più accuratezza!

Un generatore di rumore è praticamente indispensabile quando si desiderano effettuare misure comparative di rumore, oppure per determinare il rapporto S/N (S/N: Signal to Noise ratio) di un dispositivo, o la sua figura di rumore (NF: Noise Figure) e altro ancora.

La fonte di rumore più pervasiva è il rumore termico, dovuto all'agitazione termica degli elettroni liberi in un conduttore. Poiché tutto nell'universo è in qualche modo a temperatura superiore allo zero assoluto, ogni conduttore deve generare rumore.
Ogni resistore (e tutti i conduttori hanno una resistenza) genera una tensione di rumore efficace:


e = \sqrt{4k_BTRB}

dove R è la resistenza, T è la temperatura assoluta in gradi K, B è la larghezza di banda in Hertz, e kB è la costante di Boltzmann, 1.38\cdot 10^{-23} joule/K.

Un resistore rumoroso ha la seguente rappresentazione equivalente:

ThermalNoiseGeneratorModels.jpg

ThermalNoiseGeneratorModels.jpg

La massima potenza di rumore disponibile, generata dal resistore é data da:

Pn = kBTB

mentre la densità spettrale di potenza è:


S_P = {4k_BTR} \quad {\left [{V^2\over Hz} \right ]}

o, equivalentemente:


S_V = \sqrt{ {4k_BTR} } \quad {\left [{V\over \sqrt{Hz}} \right ]}

Il rumore termico ha densità spettrale di tipo bianco gaussiano per quanto concerne la tensione, se osservato in una banda di frequenza finita.

Molte sono le applicazioni possibili di un generatore di rumore bianco. Di seguito ne elenco alcune.

Simulazione del rumore di fondo.

Nello studio delle prestazioni di radio, della telemetria, di radaro sistemi sonar per quanto riguarda la loro capacità di trasmettere, rilevare e recuperare i segnali rumorosi, è conveniente simulare la vera miscela di segnale e rumore naturale mediante aggiunta di rumore avente caratteristiche controllate ad un segnale standard.
Il rumore a volte diventa il segnale stesso nei test di correlazione e di altri moderni sistemi di elaborazione del segnale.

Misurazione della distorsione di intermodulazione.

Il rumore casuale viene utilizzato in un metodo molto efficace di misurazione della distorsione di intermodulazione.
Il rumore bianco viene fatto passare attraverso un filtro elimina banda che riduce il rumore di, poniamo, 80 dB su una gamma ristretta di frequenze e viene applicato all'ingresso di un sistema.
Le misurazioni dello spettro dell'uscita del sistema indicano di quanto il "notch" nello spettro del rumore è stato "riempito" dai prodotti di intermodulazione. Questa è una misura particolarmente significativa perché il rumore bianco contiene tutte le frequenze a cui il sistema risponde, e rappresenta, in questo senso, un tipo di segnale “worst-case”.

Misurazione della diafonia.

Il rumore bianco è un segnale molto appropriato per la misura della diafonia (crosstalk) nei sistemi telefonici multicanale, nei sistemi radio o nei sistemi di telemetria. L'analisi dello spettro del segnale di diafonia identifica le frequenze che causano il maggior disturbo e fornisce indizi sulla causa e di conseguenza su come porvi rimedio.

Test della risposta di strumenti di misura.

Uno dei metodi più semplici per verificare che un voltmetro in AC risponda accuratamente al valore di picco, rms o medio consiste nell'applicare segnali che abbiano differenti rapporti tra picco, rms e medio e osservarne le differenze.
Oltre ai classici segnali sinusoidali e brevi impulsi rettangolari, il rumore gaussiano è molto utile a questo scopo.
Sebbene il valore di picco di un segnale di tipo gaussiano sia, teoricamente, infinito, la probabilità di osservare un valore estremamente grande è molto piccola. La risposta dei voltmetri che rispondono al valore di picco con del rumore gaussiano diviene prevedibile posto che le caratteristiche del voltmetro siano note. Quasi tutti i costruttori specificano quale fattore di correzione applicare alla lettura rms nel caso particolare di segnali tipo "white noise" gaussiani.

Misurazione della larghezza di banda effettiva.

Quando un dispositivo (ad esempio un filtro) viene utilizzato per misurare la densità spettrale del rumore (cioè si intende ottenere un rumore con banda ben definita) è necessario conoscere la larghezza di banda effettiva del filtro stesso.
Si può pensare alla larghezza di banda effettiva del rumore in termini di un filtro ideale avente una caratteristica di frequenza rettangolare (costante su un intervallo di frequenze e zero altrove).
La larghezza di banda effettiva del rumore di un filtro è pari alla larghezza della banda passante del filtro ideale la cui uscita è esattamente uguale all'uscita del filtro reale quando agli ingressi viene applicato lo stesso rumore bianco, purché il guadagno dei due filtri sia uguale.
Questa banda effettiva si trova misurato misurando il segnale totale trasmesso quando all'ingresso venga applicato del rumore bianco avente caratteristica spettrale nota. La gamma di frequenza del rumore bianco deve includere tutte le frequenze per le quali il filtro misurato ha una trasmissione apprezzabile.
Se la larghezza di banda effettiva del rumore in ingresso è nota, i calcoli necessari vengono semplificati; si ha che la larghezza di banda effettiva del filtro è data da:


EBW_f =  EBW_n \, \left ( \frac{N_{out}}{N_{in}G_{fmax}} \right )^2

dove:

EBWn è la larghezza di banda effettiva del rumore;
Nout è la tensione del rumore in uscita;
Nin è la tensione del rumore in ingresso;
Gfmax è il guadagno massimo o di picco del filtro (misurato con un segnale sinusoidale).

Determinazione della risposta all'impulso tramite cross-correlation.

La risposta all'impulso di un amplificatore, o sistema, è la funzione di cross-correlation del segnale di uscita e del segnale d'ingresso quando all'ingresso viene applicato il rumore bianco.
In pratica, è sufficiente che la larghezza di banda del rumore sia ampio rispetto alla gamma di risposta in frequenza del sistema in prova. Se sono disponibili strumenti o metodi per misurare la funzione di correlazione, questo metodo è in genere molto più soddisfacente dell'applicare un impulso (funzione delta) e osservane direttamente la risposta, poiché l'ampiezza dell'impulso potrebbe dover superare il livello di sovraccarico per produrre un segnale osservabile in uscita.

Dimostrazione della teoria della correlazione.

Negli esperimenti sulla teoria della correlazione è spesso necessario generare generare due segnali casuali aventi una correlazione nota. Tali segnali possono essere generati con due generatori di rumore bianco; la correlazione viene misurata correttamente moltiplicando due segnali insieme e calcolando la media del risultato.
Quando l'attrezzatura per questo scopo non è disponibile, il grado di correlazione tra due segnali casuali possono essere osservati come scatterplot (o grafico di dispersione) su oscilloscopio: è sostanzialmente equivalente a generare figure di Lissajous con segnali casuali.

Test su convertitori A/D e altri dispositivi digitali

Un generatore di tumore torna molto utile quando si desidera verificare il comportamento dei convertitori A/D in presenza di rumore. Iniettando una quantità di rumore nota si può esservare ad esempio il comportamento del bit error rate e molto altro.

Esperimenti con l'autocorrelazione

Con un generatore di rimure si possono effettuare interessanti esperimenti, aventi anche valore a scopo didattico, che mostrano come un segnale "sepolto" dal rumore possa essere rilevato ed estratto.
Un esempio pratico ve lo mostrerò tra breve.

In pratica come abbiamo visto le applicazioni di un generatore di rumore bianco sono innumerevoli; per non dilungari troppo ho tralasciato le applicazioni in psicoacustica, acustica degli ambienti, rilevazioni di riverberazione/trasmissione, collaudo e test di microfoni, altoparlanti, eccetera.

3 - Misure in presenza di rumore - correlazione e auto-correlazione

Nei precedenti paragrafi abbiamo visto, seppur brevemente, come si possano eseguire misure del rumore in sé e come utilizzare il rumore come vero e proprio segnale di test.
Vedremo ora come si possano effettura misure in presenza di rumore: in questo caso il rumore è l'ospite sgradito, mentre il segnale che vorremmo misurare è disturbato da esso.

Supponiamo ad esempio di voler osservare con attendibilità segnali come quello nella figura seguente:

SineWaveWithNoise

SineWaveWithNoise

in cui si riconosce un segnale sinusoidale particolarmente rumoroso.

Con i moderni oscilloscopi digitali è facile estrarre il segnale eseguendo un'operazione di media (averaging): si imposta il numero di iterazioni con cui mediare il segnale acquisito e voilà, ecco il segnale "ripulito" pronto per essere esaminato. E' bene precisare che qui il concetto di media è totalmente diverso da quello abituale di media artmetica pura e semplice; di fatto assomiglierebbe più a una media mobile e ogni costruttore di oscilloscopi digitali ha la sua "ricetta" per eseguire la media su più acquisizioni di uno stesso segnale.


La media mobile è il filtro più comune nel DSP (Digital Signal Processing), principalmente perché è il filtro digitale più semplice da comprendere e utilizzare.
Nonostante la sua semplicità, il filtro della media mobile è ottimale per un compito comune: ridurre il rumore casuale mantenendo una risposta al gradino netta; ha un'ottima resa per i segnali codificati nel dominio del tempo.
La media mobile è però il filtro peggiore per i segnali codificati nel dominio della frequenza, con scarsa capacità di separare una banda di frequenze da un'altra.


Nell'elaborazione digitale dei segnali sono molto comuni problemi di questi due tipi:
A) Qual è il segnale in uscita (risposta) da un filtro quando il suo input è x(t)? La risposta è data da  x(t)\ast h(t) dove h(t) è un segnale chiamato risposta all'impulso del filtro, e \ast è l'operazione di convoluzione.
B) Dato un segnale rumoroso Y(t), il segnale x(t) è in qualche modo presente in y(t)? Detto altrimenti,

y(t) = x(t) + n(t)

dove n(t) è rumore?
La risposta può essere trovata dalla correlazione di y(t) e x(t). Se la correlazione è elevata per un dato intervallo di tempo τ, allora possiamo essere sicuri di dire che la risposta alla domanda è sì.

Nel campo del DSP la convoluzione viene generalmente espressa con la seguente formula:


y[n] = {\sum_{\forall m} h[m] x[n-m]}


Mentre la correlazione tra due segnali è espressa così (vi sono altre definizioni, più accurate e pertinenti, ma è meglio restare sul semplice per non confondere troppo il lettore):


R_{xy}[p] = {\sum_{\forall m} x[m] y[p+m]}

Se i segnali di ingresso sono composti (caso della convoluzione) rispettivamente da n campioni per h e m campioni per il segnale x, la lunghezza del segnale in uscita è composta da (nel caso della convoluzione) da m+n-1 campioni (samples). Lo stesso concetto si applica al caso della correlazione.

Non fatevi ingannare dalla somiglianza matematica tra convoluzione e correlazione: rappresentano procedure DSP molto diverse.
La convoluzione è la relazione tra il segnale di ingresso, il segnale di uscita e la risposta all'impulso di un sistema.
La correlazione è un modo per rilevare una forma d'onda nota sepolta dentro il rumore di fondo. La similitudine matematica è solo una (comoda) coincidenza.

Tralasciamo la convoluzione (che necessiterebbe di un discorso a parte, decisamente lungo) e concentriamoci sulla correlazione, senza appesantire troppo la narrazione con complicate formule; chi fosse avido di formule matematiche potrà sempre consultare la bibliografia riportata in fondo a questo articolo.


La correlazione è un'operazione matematica molto simile alla convoluzione.
Proprio come con la convoluzione, la correlazione utilizza due segnali per produrre un terzo segnale. Questo terzo segnale è chiamato correlazione incrociata (cross-correlation) dei due segnali di ingresso. Se un segnale è correlato con se stesso, il segnale risultante è invece chiamato autocorrelazione.

3.1 Correlazione incrociata

Per meglio spiegare il concetto, a partire dalla correlazione incrociata, un ottimo e classico esempio è quello di un sistema radar, come quello illustrato nella figura seguente:

radar

radar

Un'antenna trasmette un breve burst di onde radio in una direzione selezionata. Se l'onda che si propaga colpisce un oggetto, come l'elicottero in questa illustrazione, una piccola frazione dell'energia viene riflessa verso un ricevitore radio situato vicino al trasmettitore. L'impulso trasmesso in questo esempio è per semplicitò il triangolo mostrato in questo esempio.
Il segnale ricevuto sarà costituito da due parti: (a) una versione spostata e scalata dell'impulso trasmesso e (b) rumore casuale, derivante da onde radio interferenti, rumore termico nei componenti elettronici, ecc.
Poiché i segnali radio viaggiano a una velocità nota (la velocità della luce), lo spostamento tra l'impulso trasmesso e quello ricevuto è una misura diretta della distanza dall'oggetto rilevato.
Qui sorge il problema: dato un segnale di una forma nota, qual è il modo migliore per determinare dove (o se) il segnale che a noi interessa appare in un altro segnale.
La correlazione è la risposta. Applicando l'algoritmo di correlazione ai due segnali, trasmesso e ricevuto, si otterrebbe un grafico simile al seguente:

radar-cross-correlation

radar-cross-correlation

che mostra una forte correlazione (indicata dal picco) tra il 50esimo e il 60esimo campione; attenzione che stiamo parlando di correlazione: l'ampiezza del picco è un dato statistico, non un'ampiezza fisica come una tensione o una potenza. Con un gioco di parole, potremmo dire che il picco della correlazione è direttamente correlato all'ampiezza del segnale ricevuto in corrispondenza di quel campione. Di fatto la correlazione andrebbe normalizzata, in maniera che essa vari tra +1 e -1. Un valore prossimo a 1 indicherebbe una forte correlazione in quel campione (o punto); un valore prossimo a -1 indicherebbe che i due segnali sono completamente scorrelati.

Se c'è rumore sul segnale ricevuto, ci sarà rumore anche sul segnale di correlazione. È inevitabile che il rumore casuale assomigli in una certa misura a qualsiasi segnale che potremmo scegliere. Il rumore sul segnale di correlazione incrociata misura semplicemente questa somiglianza.
Ad eccezione di questo rumore, il picco generato nel segnale di correlazione incrociata è simmetrico tra sinistra e destra e questo è vero anche se il segnale ricevuto non è simmetrico; inoltre, la larghezza del picco sarà doppia rispetto alla larghezza del segnale ricevuto perché ricordo, la correlazione incrociata sta cercando di rilevare il segnale ricevuto, non di ricrearlo.
Non c'è motivo di aspettarsi che il picco assomigli al segnale!

La correlazione (incrociata) è la tecnica ottimale per rilevare una forma d'onda nota nel rumore casuale, ovvero il picco è più alto al di sopra del rumore utilizzando la correlazione rispetto a quanto può essere prodotto da qualsiasi altro sistema lineare. (Per essere perfettamente corretti, è ottimale solo per il rumore bianco casuale). L'uso della correlazione per rilevare una forma d'onda nota viene spesso chiamato filtro adattato (matched filter).

Come esempio pratico ho sfruttato le capacità del mio Tek 7854 per implementare in pratica il semplice esempio del radar esposto prima. Ho creto un segnale avente forma di impulso con decadimento esponenziale:

radar1

radar1

Dopodiché l'ho ritardato rispetto al segnale originale, e vi ho aggiunto del rumore bianco (proveniente ovviamente dal mio generatore):

radar2

radar2

Infine ho applicato l'algoritmo di correlazione mediante un programma nel 7854; il risultato è molto eloquente:

radar3

radar3

3.2 Autocorrelazione

Cosa succede se correliamo il segnale con se stesso?
Intanto, per avere qualche riferimento pratico, di seguito vi è una tabella che rappresenta le funzioni di autocorrelazione più comuni, per segnali continui, non discreti. Per i segnali discretizzati l'andamento é comunque molto simile, tenendo conto del fatto che il segnale è comunque discrettizzato e avente un numero di campioni finito.

ExampleAutocorrelationFunctions

ExampleAutocorrelationFunctions

Per contrasto ecco alcuni esempi con segnali discreti:

AutocorrelationOfDiscreteSignals

AutocorrelationOfDiscreteSignals

Infatti se proviamo ad effettuare l'autocorrelazione del rumore bianco del generatore con il Tek 7854, otteniamo questo risultato:

WhiteNoiseAutocorrelation

WhiteNoiseAutocorrelation

Che è un risultato abbastanza prevedibile, poiché il segnale è completamento scorrelato eccetto per un ritardo pari a 0 (coincidenza temporale). Il rumore come al solito proviene dal mio generatore di rumore bianco.

Nella foto seguente invece abbiamo questo segnale:

SineWithNoise

SineWithNoise

che non dice granché.
Ma se proviamo a farne l'autocorrelazione otteniamo questo risultato:

PreviousSignalAutocorrelated

PreviousSignalAutocorrelated

che mostra un andamento ripetitivo dell'autocorrelazione; di fatto sembrerebbe che vi sia un segnale periodico "sepolto" nel rumore. L'immagine seguente mostra il segnale originale, non rumoroso, al quale avevo sommato del rumore bianco, e il risultato dell'autocorrelazione:

OriginalAndAutocorrelatedSignal

OriginalAndAutocorrelatedSignal

Questo esempio mostra come tramite l'autocorrelazione sia possibile "estrarre" informazioni da un segnale apparentemente composto da solo rumore, ed è una tecnica di analisi molto potente. Si faccia riferimento alla tabella precedente che mostra la funzione di autocorrelazione per un segnale sinusoidale con in più del rumore bianco (quarta riga della tabella, sine wave plus gaussian noise).

3.3 Conclusioni

Con gli esempi precedenti ho mostrato che con un semplice ma efficace generatore di rumore bianco é possibile condurre molti esperimenti di laboratorio che hanno un alto valore didattico stante l'impegno richiesto all'operatore (o allo studente) per collegare e regolare opportunatamente tutta la strumentazione necessaria. In tal modo si ottiene il duplice effetto di unire la teoria alla pratica, ragionando su come realizzare i vari esperimenti e trarne conclusioni coerenti.
A mio avviso risulta molto più soddisfacente tale metodo che non l'apprendimento puramente teorico seguito eventualmente da simulazioni al calcolatore. Una cosa sono gli strumenti virtuali, altra cosa è il sapersi muovere in un vero laboratorio reale con strumenti reali e le loro implicite limitazioni!

Appendice - Il Tektronix 7854

Una menzione speciale merita l'oscilloscopio Tektronix 7854 che mi ha permesso di effettuare tutte le misure e gli esperimenti descritti in questo articolo.

Entrato in produzione nel 1980 e rimasto in catalogo fino al 1990, era un vero "mostro" per l'epoca.
Dotato di una banda passante tra i 400 e i 500 MHz, poteva digitalizzare le forme d'onda (10 bit di risoluzione verticale x 1024 punti di acquisizione in orizzontale) e manipolarle a piacimento sia applicandovi funzioni matematiche sia operando sui singoli campioni acquisiti.

Era dotato di una tastiera sul frontale per eseguire le misure di uso più frequente (valore medio, di picco, tempo di salita, eccetera) e poteva eseguire programmi scritti tramite un'apposita tastiera supplementare collegata. Degno di nota l'utilizzo della notazione post-fissa meglio conosciuta come RPN (Reverse Polish Notation) presumibilmente dovuta al fatto che a quell'epoca dominavano le calcolatrici tascabili e da tavolo prodotte dalla Hewlett-Packard che, come noto, utilizzavano da sempre la logica RPN.

Utilizzava il microprocessore TMS9900 della Texas Instruments con un clock massimo di 3 MHz. Fu uno dei primissimi microprocessori a 16 bit a uscire sul mercato, ma non ebbe molto successo per una serie di motivi che non sto ad approfondire qui. Potete comunque trovare la sua storia e molto altro su internet.
Qui potete trovare una interessante storia ricca di aneddoti.

Di seguito una panoramica del 7854 con la sua tastiera, che la Tektronix chiamava Waveform Calculator:

Tek7854-1

Tek7854-1

Un dettaglio della tastiera:

Tek7854-keyboard

Tek7854-keyboard

Sul pannello frontale dell'oscilloscopio sono replicati i comandi di uso più comune accessibili da tastiera.

Un dettaglio di un listato del programma da me scritto e utilizzato per calcolare la correlazione:

Tek7854-program

Tek7854-program

Purtroppo il linguaggio non era di per sé un vero e proprio linguaggio, ma piuttosto memorizzava la sequenza di tasti, esattamente come una calcolatrice. Il risultato (aggiungendo il fatto che operava con la RPN) è una sequenza di istruzioni decisamente criptica e per di più "contorta", dato che non aveva istruzioni di controllo del flusso di esecuzione a parte il famigerato GOTO (argh...).
C'è la possibilità di utilizzare le label (LBL) che perlomeno aiutavano il programmatore (e il malcapitato decifratore del programma) a rendere il codice un pochino più comprensibile (ma non più di tanto); inoltre sono disponibili le subroutine (GSB/RTN) e il comando PAUSE per visualizzare temporaneamente qualche dato.

Bibliografia

Oliver-Cage: Electronic Measurement and Instrumentation, McGraw-Hill, 1985
A. Bruce Carlson: Communication Systems, McGraw-Hill, 1987
The General Radio Experimenter, Signal Analysis with Digital Time Series, Volume 44, Number 7-9, July/September 1970
Sigfrido Leschiutta: Misure Elettroniche, Pitagora Editrice, 1996
Steve W. Smith: The Scientist and Engineer's Guide to Digital Signal Processing, California Technical Pub, 1998
Burrus-Parks: DFT/FFT and Convolution algorithms, John Wiley & Sons, 1985 (Copyright of Texas Instruments)

3

Commenti e note

Inserisci un commento

di ,

Sto realizzando un programma che si interfaccia col 7854. Sostamzialmente avquisci un waveform dal 7854, invia un SRQ al prohrammino che gira sul laptop. Quest'utlimo esegue la FDT del segnale acquisito e la rimanda indietro al 7854. In questo modo, in pochi decimi di secndo è possibile vedere lo spettro del segnale acquisito. Un 'duro e puro"del 7854 aveva scritto un programma che eseguiva la FFT in loco. Unica limitazione: dai 12 ai 24 minuyi per ottenere il risultato. Con la mia tenci nca si impega al massimo 1 secondo. e interessati fatemelo sapere. Il programma che gira sul laptop e- un mic di C e FORTRAN e sono tassativamente richieste le Agilent/Keysighti I/O Library Suite Max

Rispondi

di ,

Molto interessante!

Rispondi

di ,

m(_ _)m Grazie mille per la condivisione!!!

Rispondi

Inserisci un commento

Per inserire commenti è necessario iscriversi ad ElectroYou. Se sei già iscritto, effettua il login.