Astrofotografia digitale per neofiti con DSLR
Canon EOS 450D e riprese deepsky a fuoco diretto

a cura di Paolo Botton
aggiornato: 25.06.2015


Nota informativa: in questa pagina esplicitiamo il percorso formativo che abbiamo intrapreso e stiamo affrontando per effettuare riprese fotografiche del cielo profondo.
Il contenuto è mirato all'uso delle DSLR (le fotocamere reflex digitali) da usare come strumenti sia per astrofotografia visuale, sia per studi astrometrici e fotometrici anche come ausilio per la scoperta di fenomeni transitori astronomici e planetari.
Alcune immagini di prova, calibrate con il metodo descritto in questo documento, si trovano sotto il menu a tendina, al percorso [Miscellanea —› Immagini deep-sky d'esempio].
Sull'argomento sono stati scritti ottimi libri (nel menu a tendina, al percorso [Miscellanea —› Bibliografia]) quindi noi sfruttiamo il loro contenuto per applicarlo a IRIS e Registax, programmi gratuiti scaricabili dai siti ufficiali http://astrosurf.com/buil/us/iris/iris.htm e http://www.astronomie.be/registax/.
Per l'uso di Registax, Luca Vito Perazzone ha tradotto in italiano il tutorial REGISTAX 6 di Paul Maxson, che trovate qui in formato PDF.
In questo sito trovate un ottimo MANUALE IN ITALIANO di IRIS.


Il semplice scatto di una foto o di alcune foto che concorrano alla somma dei segnali non porta a migliorare il RAPPORTO SEGNALE/RUMORE o S/N (quindi aumentare i dettagli utili), alla realizzazione di un'immagine adeguata agli scopi che si siamo prefissi.
è necessario seguire dei protocolli di ripresa ormai consolidati, seguiti da una buona procedura di calibrazione delle immagini per raggiungere alti livelli estetici e grandi precisioni dal punto di vista fotometrico; al di la della bellezza di un'immagine, la bontà di una foto ne permette l'uso a scopi scientifici.
Si nota subito dalle immagini che seguono, che non sono state applicate tecniche di processo digitale (calibrazioni); sono infatti frutto di una mera somma di fotogrammi con tempi d'integrazione del tutto insufficienti e lo si può ben notare dalla scarsità di particolari nelle nebulose, dalla bassa risoluzione in stelle dell'ammasso globulare (M13), dal mosso (M57), nonché dal forte gradiente di fondo cielo e dalla vignettatura (M42).
Insomma, un esempio volutamene mostrato di ciò che non si deve fare...

  —   M13 - foto: Paolo Botton (20 Ott. 2010)

Canon EOS 450D non modificata a fuoco diretto,
Telescopio Celestron C8 S-GT XLT
Somma di 3 pose da 30 secondi senza calibrazione (IRIS)

  —   M57 - foto: Paolo Botton (20 Ott. 2010)

Canon EOS 450D non modificata a fuoco diretto,
Telescopio Celestron C8 S-GT XLT
Somma di 3 pose da 30 secondi senza calibrazione (IRIS)

  —   Albireo - foto: Paolo Botton (20 Ott. 2010)

Canon EOS 450D non modificata a fuoco diretto,
Unico fotogramma da 30 secondi in formato JPG - senza calibrazione

Telescopio Celestron C8 S-GT XLT

  —   M42 - foto: Luca Perazzone (Dicembre 2011)

Canon EOS 350D modificata a fuoco diretto,
Telescopio 70/400 Williams Optics
Somma di 3 pose da 30 secondi (Registax) - senza calibrazione

Nelle immagini che si acquisiscono tramite le DSLR è evidente l'esistenza delle componenti di segnale che impediscono di apprezzare i particolari; anche se impropriamente, definisco questi segnali indesiderati come rumore. Lo scopo della calibrazione è quello di migliorare il rapporto segnale/rumore (S/N ratio, in inglese), cassando quanto più possibile ciò che concorre a produrre rumore (noise, in inglese).
Non voglio effettuare una disamina della fisica dei sensori CCD o CMOS, mi limito ad evidenziare che ogni rumore ha la sua origine specifica e come tale lo si può mediare grazie alla ripresa d'immagini ausiliarie, effettuate in opportune condizioni, in modo che contengano principalmente proprio il segnale etichettato come indesiderato.
Prima di vedere l'elenco delle immagini necessarie alle operazioni di calibrazione, occorre sapere che sono necessarie alcune operazioni preliminari da effettuare sulla propria DSLR.
Per una corretta calibrazione, occorre salvare le riprese in formato RAW e non solo JPEG, perchè queste subiscono un'elaborazione ed una compressione tale da perdere alcune informazioni sull'immagine: selezionare quindi il formato RAW + JPEG o semplicemente RAW per limitare l'uso di memoria. L'evetuale scelta RAW + JPEG, che sulla CANON è indicato con RAW+L, è una modalità che, grazie alla presenza del JPEG permette una visione in chiaro delle pose con i comuni programmi di visualizzazione delle immagini. Salvo rari casi, infatti, le immagini RAW non sono direttamente visionabili ed il JPEG rappresenta una copia di ciò che compare nel RAW, ma processata dalla macchina fotografica.
Poichè si riprendono immagini che subiranno un processo di calibrazione e contestualmente anche le immagini che serviranno a tale processo, è necessario intervenire sulle impostazioni di macchina:

escludere l'opzione di riduzione automatica del rumore per alte velocità ISO;
escludere l'opzione di riduzione automatica del rumore per lunghe esposizioni.

Gli automatismi esclusi concorrerebbero ad una pre-elaborazione, alterando proprio quei dati che sono necessari all'intervento di calibrazione.
Non solo, gli algoritmi di calcolo attivi allungano i tempi d'attesa tra uno scatto e quello successivo (ad esempio, se uno scatto ha un tempo di posa da 30 secondi, ne devo attendere quasi altrettanti prima che la macchina mi permetta di effettuare quello successivo).
Inoltre...

Se la DSLR ha la funzione di sharpening, occorre disabilitarla.
Selezionare lo spazio colore sRGB.
L'opzione di bilanciamento del bianco deve essere impostata su luce diurna, ma spesso sarebbe meglio calibrare la DSLR con una procedura per indicarle qual è la luce bianca che intendiamo noi. Ogni DSLR ha un paragrafo dedicato a questa funzione nel proprio manuale utente, quindi suggerisco di seguirla per ottenere i migliori risultati possibili. A maggior ragione, questa regola si applica alle fotocamere cui è stato tolto il filtro che taglia gli infrarossi ossia è possibile far risaltare le nebulose ad emissione.

Ad oggi non autoguido e non prevedo di dotarmi a breve d'idonea attrezzatura (costa...), quindi pongo particolare attenzione all'allineamento polare e all'instabilità nell'inseguimento in AR, che può compromettere le riprese: fotografando con un cattivo o approssimato allineamento al polo, oltre alla rotazione di campo e allungamento delle stelle, in alcune montature la deriva in A.R. dopo alcune ore di lavoro non permette di centrare perfettamente i soggetti fotografici alla cieca utilizzando la pulsantiera, senza smontare la fotocamera e dover montare l'obiettivo (questo problema di puntamento si ovvia in parte con un piccolo telescopio in piggy-back a quello usato per scattare le foto).
Per l'allineamento polare applico il metodo della deriva in declinazione (noto come Bigourdan) fino al punto in cui la stella campione non presenta spostamenti in un arco di tempo di almeno 5 minuti.
Per limitare l'instabilità, il manuale della testata equatoriale della Celestron Advanced S-GT indica, una volta collimato l'oggetto da fotografare, di creare un leggero sbilanciamento dei pesi in Ascensione Retta, posizionando i pesi lungo la barra del contrappeso in modo che:

quando il telescopio si trova sul lato Ovest della montatura, il contrappeso deve fare in modo che esista un leggero sbilanciamento a favore della barra (circa 300-500 grammi), ossia si porta il peso verso il basso o se ne aggancia uno ausiliario al momento;
quando il telescopio si trova sul lato Est della montatura, il contrappeso deve fare in modo che esista un leggero sbilanciamento a favore del telescopio, ossia si porta verso l'alto il peso.

Con questi interventi, la vite senza fine preme sulla corona in opposizione ad un leggero carico, ossia durante l'inseguimento per l'astrofotografia gli ingranaggi del motore di AR sono sempre in presa.
Per mettere a fuoco, utilizzo una Maschera di Hartman e l'opzione Live View della fotocamera con ingrandimento a 10x. Quando posso, utilizzo un portatile e il software CANON per pilotare la DSLR così scarico la foto sul PC ed osservo meglio l'immagine.
Chi se lo può permettere, dovrebbe dotarsi di un ocheggiatore elettrico, in modo da interferire il meno possibile sul gruppo montatuta/ottiche durante la manovra di aggiustamento e non produrre oscillazioni che rendono impossibile l'osservazione della puntiformità delle stelle ad alti ingrandimenti.
Il seeing è un altro problema, a cui non è possibile rimediare; quando è pessimo, difficilemente si potrà fare una buona messa a punto per astrofotografia.
È indispensabile che telescopio e DSLR abbiano raggiunto l'equilibrio termico, quindi è bene predisporre la strumentazione con largo anticipo. Personalmente porto lo strumento in cortile almeno due o tre ore prima di avviare il lavoro vero e proprio.
Discorso a parte sono le vibrazioni trasmesse tramite il terreno: su alcuni tipi di suolo, basta passeggiare attorno alla montatura perchè con focali lunghe si muova tutto, con il risultato di buttare decine di frames.
Per effettuare l'intervento di calibrazione, occorrono questi (o alcuni) scatti:

Light Frame: è l'immagine dell'oggetto che fotografiamo, contiene i segnali fondamentali che saranno sottoposti al processo di calibrazione, pertanto maggiore sarà il tempo d'esposizione, abbinato ad un numero di scatti congruo, maggiore sarà anche il rapporto S/N.
I tempi d'esposizione saranno funzione della bontà dell'inseguimento; se questo è un problema si possono aumentare le pose anche a 30-50 (in previsione di uno scarto del 20%) ma i tempi d'esposizione non dovranno mai scendere sotto i 30 secondi. Con tempi più brevi si cade nel lucky-imaging, sfruttato da chi non possiede una strumentazione di eccellenza.
Meglio fare delle prove per verificare il limite temporale di posa legato al proprio setup, prima che intervengano effetti visibili sulle pose, che emergono in genere oltre i 60-70 secondi.
Per gli scatti frutto la funzione di ribaltamento dello specchio ed un cavo per lo scatto remoto autocostuito, in modo da toccare meno possibile la montatura, riducendo all'osso le vibrazioni.
Per ogni sessione fotografica indico:
setup utilizzato
strumento;
montatura;
sistema di guida (in asse, fuori asse, autoguida...);
interposizioni ottiche (Barlow, riduttori di focale, filtri, ecc.);
dispositivo fotografico (camera CCD, DSLR...) e caratteristiche tecniche;
condizioni climatiche e di seeing.
Inoltre, per ciascuna gruppo d'immagini riprese è necessario tenere un rapporto di scatto indicando:
data e ora;
data giuliana;
oggetto e/o costellazione d'appartenenza;
eventualmente Ascensione Retta e Declinazione, se si tratta di un astro non catalogato o di un nuovo fenomeno astronomico transitorio;
tempo d'esposizione in secondi;
focale (quella del telescopio o in funzione dell'obiettivo usato se la DSLR è in piggy-back);;
velocità ISO; — in genere 400 o 800 ISO per oggetti del cielo profondo.
Dark frame: Serve per eliminare il rumore termico dalle immagini, una forma di degrado del segnale, indipendente dalla luce che colpisce il sensore perchè prodotto in ogni sistema che si trovi a temperatura diversa dallo zero assoluto, a causa dell'agitazione degli elettroni. Il dark frame opera sul rumore ricorrente e non su quello casuale.
Per la ripresa di un dark frame si effettuano degli scatti nelle identiche condizioni di temperatura, tempo di posa, velocità ISO e intervalli tra le pose delle riprese fotografiche astronomiche, ma con il tappo sull'obbiettivo.
Le immagini andranno mediate (non sommate) con il software di elaborazione. Da questa operazione si ottiene il master dark che andrà sottratto alle singole immagini (light frame).
La letteratura suggerisce di realizzare 21 dark frame nella stessa serata, al termine dei light frame, in modo da non alterare i parametri di ripresa.
Bias frame: È detto anche offset frame e serve per sottrarre il rumore elettronico del sensore.
Ogni pixel del sensore contiene un elemento fotosensibile che converte la luce incidente in un segnale elettrico, che a sua volta viene elaborato per produrre un punto nell'immagine finale. I segnali elettrici prodotti dal sensore devono essere amplificati ed ogni amplificazione comporta un aumento sia del segnale utile, sia del rumore originale, a cui si somma quello introdotto dallo stadio amplificatore.
Inoltre, anche in assenza di luce, i fotoelementi producono un certo segnale di fondo che genera rumore.
Per la ripresa di un bias/offset frame si deve porre il tappo sull'obbiettivo, quindi impostare il tempo di posa sul valore minimo consentito dalla reflex, mantenendo la velocità ISO delle riprese; la temperatura operativa non è importante.
Si tratta a tutti gli effetti di un dark frame a tempo zero, ossia con il più breve tempo di scatto possibile concesso dalla propria DSLR.
Vale la regola di realizzare almeno 21 bias/offset frame che andranno mediati come già indicato.
Il master offest così ottenuto sarà sottratto al master dark.
Nota:
In un'immagine di dark frame, oltre alla corrente di buio, dovrebbe esserci anche la componente del rumore di lettura e dell'amplificatore. Un dark frame eseguito correttamente, con lo stesso tempo di posa e temperatura dell'immagine, svolge anche le funzioni di un bias frame e quindi non lo si deve correggere con un altro bias frame, altrimenti si avrà un'immagine corretta più del necessario.
Se i dark frame hanno una durata diversa da quelli dell'immagine da calibrare (bastano pochi secondi), allora serve il bias che dovrà essere sottratto al dark.
— Realizzare, se servono, i singoli bias (offset) dopo aver scattato i dark frame.
Flat frame: Serve per correggere la disuniformità del campo di ripresa: polveri sul sensore o graffi, la non idealità dei fotoelementi o la vignettatura (fenomeno di scurimento dell'immagine verso il bordo del campo).
Per realizzarlo è necessario mantenere inalterata la configurazione ottica con cui si realizzano le immagini del soggetto (Light Frame): non smontare la DSLR, non ruotarla, non modificare la messa a fuoco e gli ISO impostati durante la ripresa dei Light Frames. La temperatura non è importante.
Se si utilizza un paraluce, deve essere mantenuto montato per le riprese dei flat frames, altrimenti gli scatti non serviranno a nulla.
Rispettate queste regole, occorre fotografare una superficie illuminata uniformemente con luce bianca.
è possibile riprendere il cielo nella mezzora che caratterizza il crepuscolo, senza l'inseguimento attivo, inclinando il telescopio di 5-10 gradi rispetto allo Zenith, in opposizione al tramontare del Sole, per ottenere un'ottima uniformità di campo. Se compaiono alcune stelle nelle pose, la somma mediana dei singoli flat le cancellerà. Si capisce come sia un metodo che permette tempi d'intervento ridotti.
è meglio riprendere i flat scattando le foto ad un soggetto di cui possiamo controllare le caratteristiche, come lo schermo LCD bianco di un PC oppure un foglio di carta bianca a grana grossa poggiato allo specchio, o una T-shirt bianca senza pieghe. È importante che gli oggetti siano uniformemente illuminati da una sorgente di luce bianca o dalla luce dell'alba.
Oltre al ricorso ad una flat box, la frontiera dei flat frame d'autore sono i pannelli ù elettroluminescenti (EL), disponibili in vari formati UNI (A4, A3, A1). I pannelli EL hanno una luminosità uniforme, regolabile con un potenziometro e sono pilotati da inverter a bassa tensione, in genere alimentati con batterie.
Al di là delle scelte, il tempo d'esposizione deve essere tale da ottenere un valore medio di luminosità pari a circa 1/2 o 2/3 della dinamica massima del sensore, in altre parole, il livello di luminosità medio deve essere circa il 50%-66% di quello di saturazione. Per rendere pratica questa affermazione, una scelta è quella di demandare alla macchina fotografica questo compito, riprendendo i 21 flat frames in modalità di scatto Av, ossia in priorità di diaframmi.
È importante che il picco dell'istogramma non presenti fattori di saturazione dell'immagine e sarebbe meglio verificare che non vi sia nessuna zona satura per tutti e tre i colori, impostando l'istogramma della reflex da luminosità a RGB. Occorre fare una serie di scatti di prova per verificare quanto sia necessario intervenire manualmente sui tempi di posa o sull'intensità della sorgente luminosa (NON sugli ISO). Si devono riprendere altrettanti dark (detti dark-flat) mantenendo le impostazioni di macchina dei flat ma con il tappo sull'obiettivo; l'immagine di flat field è una ripresa a tutti gli effetti e come tale contiene del rumore.
Si procede quindi alla realizzazione di un master flat, mediando tra di loro le singole immagini flat, alle quali sono stati preventivamente sottratti i rispettivi dark-flat.
La correzione per il flat field va applicata ad ogni singola immagine prima del loro trattamento (si vedrà come più avanti).

Il motivo per cui si utilizza la mediana al posto della media è il seguente:
La media si effettua sommando n immagini e dividendo il risultato per n.
La mediana opera prendendo gli stessi pixel da ciascuna immagine, riordinandoli in serie crescente o decrescente d'intensità scegliendo, poi, quelli che si trovano in mezzo alla lista (tramite opportuni parametri). Questo permette di scartare zone particolarmente chiare o scure: in genere stelle, raggi cosmici, pixel caldi, freddi, scie di satelliti, aerei o meteore.
Ecco un esempio numerico con scatti immaginari:
la ripresa standard, supponiamo, fornisce pixel con valore pari a 100; riprendendo 3 immagini (I), (II) e (III), rilevo su due di esse degli scostamenti di valore pari a 97(I) e 101(II), a causa del rumore elettronico, mentre sulla terza trovo un picco di rumore pari a 190(III).
La media sui valori dei pixel fornisce 129.3, mentre la mediana solo 101. Con la mediana, il picco di rumore genera sì uno spostamento nella sua direzione, ma risulta di poco maggiore al valore atteso dal fotogramma, che vale 100.

ACQUISIZIONE DELLE IMMAGINI

La sequenza di ripresa

1. Light Frames, ossia i soggetti astronomici.
2. Dark frames, sempre al termine della sessione osservativa.
3. Flat frames con comodo, senza modificare l'assetto, con il coprioculare di gomma inserito sulla DSLR.
4. Dark dei Flat frames, dopo la ripresa dei Flat Frames.

Light Frame

Verifico inquadratura, fuoco e parametri d'esposizione (ISO e tempo di scatto) effettuando scatti di prova con il controllo remoto Canon e cavo USB, in modo da scaricare l'immagine direttamente sul portatile ed utilizzare IRIS per visualizzarla, onde controllare i livelli di segnale in assenza di fenomeni di saturazione.
Se non posso usare il computer, mi accontento del display della macchina fotografica e del suo istogramma. In questo caso faccio in modo che l'immagine presenti il picco dell'istogramma attorno a valori compresi tra il 20% ed il 40%, come mostro dell'immagine.

È un'operazione noiosa perché capita sovente di dover ripetere l'operazione correggendo i problemi che ho eventualmente riscontrato.
Se il livello di segnale è troppo basso, aumento il tempo di esposizione; se vi sono zone sature, diminuisco il tempo di esposizione o al limite intervengo anche sugli ISO.
La messa a fuoco è l'operazione che mi porta via più tempo anche con la maschera di Hartman o la maschera di Bahtinov.
Ricordarsi di togliere la maschera di messa a fuoco prima di scattare le foto di prova e soprattutto prima di avviare la sessione di riprese del cielo profondo.
Quando l'immagine di prova risulta ottimale, faccio ordine, lasciando in uso solo lo stretto necessario.
Inserisco il controllo remoto autocostruito o programmo il battery-grip per la gestione degli scatti. Ne effettuo quanti più possibile in base all'oggetto che devo riprendere o dei tempi di posa: ad esempio 20 o 30 scatti con tempi da 60-80 secondi (da 20 a 40 minuti d'integrazione, a meno degli scarti per mosso).
Non avendo una montatura eccezionale, tra un'esposizione e quella successiva, la testata equatoriale causa dei piccoli spostamenti (dithering) del soggetto sul sensore e questo massimizza il segnale raccolto perchè riduce il problema causato da una sensibilità disuguale dei singoli pixel del sensore. La cosa permette un generale miglioramento dell'elaborazione, senza far emergere, ad esempio, lo sfondo striato, ottenendo maggiori dettagli.

Dark Frame

Avvio la sequenza di scatti per i dark, in modo da essere sicuro che la temperatura sia molto simile a quella esistente al momento della ripresa dei light frame.
Mantengo gli stessi ISO, tempo d'esposizione, e intervallo fra ogni scatto usati in precedenza per i light frame.
Riprendo almeno 21 dark.

Immagini flat

Appena posso, già il giorno dopo l'osservazione, riprendo 21 flat, con tempo d'esposizione utile ad ottenere una mediana centrata a metà della dinamica della fotocamera (scatti in Av), quindi attorno a 8192 che rappresenta un mezzo dei 14 bit del sensore della DSLR (infatti 214 = 16384). Se il controllo con IRIS mi soddisfa bene, diversamente effettuo diverse prove in manuale per trovare il tempo d'esposizione corretto.
Ecco come procedo.
Gli scatti li effettuo con il controllo remoto Canon via USB, in modo da scaricare le immagini direttamente sul computer. L'indicatore dell'istogramma dello schermo della macchina fotografica fornisce un valore calcolato dopo l'applicazione della funzione gamma (stretch del contrasto) all'immagine originale e perciò difficilmente riporterà l'istogramma lineare dei dati acquisiti nel file RAW. Tramite IRIS si nota che i flat appaiono sovraesposti rispetto all'istogramma che appare sullo schermo della macchina, se usato come una guida.

Apro IRIS;
seleziono File —› Settings... e imposto il tipo di file PIC e introduco nella casella Working Path la cartella di lavoro f:\iris\dati\ (ad esempio...).
Premo l'icona della macchina fotografica sulla barra degli strumenti; in modo da aprire la finestra di configurazione della DSLR.
Imposto il binning 1×1, il modello di macchina fotografica ed il metodo d'interpolazioneù RAW interpolation method = GRADIENT.
Il metodo per interpolare, dall'immagine RAW, l'immagine a colori, che indica il passaggio dalla matrice di Bayer all'immagine a colori, sarà meglio esplicitato nel paragrafo della calibrazione. Per lo scopo di questa sezione, GRADIENT è sufficiente.
Lascio non spuntato Apply nel White balance.
Apro la finestra delle righe di comando, selezionando l'icona Command Window sulla barra degli strumenti
Sulla barra dei menu, seleziono Analysis —› Display Data... per aprire la finestra di output.
Seleziono Digital Photo —› Decode RAW files... per convertite i flat grezzi da RAW a PIC (codifica CFA, ossia Color Filter Array).
Scarico via USB i flat dalla DSLR, li seleziono tutti (i miei hanno estensione .CR2) e li trascino nella finestra IRIS Decode RAW Files. Chiamo fl la sequenza dei flat e poi premo il pulsante —› CFA.
IRIS elabora i RAW nel formato PIC; ogni flat sarà rappresentato in scala di grigi, codifica CFA.
A questo punto calcolo la statistica o per un flat o per l'intera sequenza. L'analisi la effettuo sia per l'intera immagine, sia per ogni canale colore; le DSLR hanno una sensibilità diversa per i vari colori e se dovessi decidere di usare il cielo al crepuscolo per i flat, questo non risulta bianco.
Usando i comandi di riga, carico un flat (ad esempio fl1) e lancio il comando stat:

>load fl1
>stat
nella finestra di output ottengo una serie di valori, tra cui quello mediano, che deve soddisfare il criterio che mi sono imposto per i flat (l'intorno di 8192).
Mean:  7712.0   Median: 6112
Sigma: 2763.0
Maxi.: 16086.0  Mini.: 1613.0
Verifico anche i livelli RGB; trasformo i flat da CFA a RGB ed effettuo un'analisi statistica, il tutto con i comandi di riga:
>cfa2pic fl flrgb n                   n è il numero dei flat ripresi;
>stat3 flrgb n
stat3 esegue il comando stat su ogni flat, salvando il risultato nel file stats.lst nella cartella di lavoro.
Apro il file stats.lst con un editor di testo e trovo che vi sono tre righe per ogni frame: una per il canale rosso, una per il verde e una per il blu.
Le colonne hanno questi significati: nome del colore con numero dell'immagine (rx, gx e bx), valori di Mean, Max, Min, Sigma e Median:
r11  6344.4   9612.0   0.0   1594.8   7336
g11  8389.2  16086.0   0.0   2208.9   9847
b11  4228.1   6383.0   0.0    947.5   4778

Verifico che il valore Median per ogni colore sia in prossimità di 8192.
Con una DSLR non modificata, i flat ottenuti fotografando il cielo al crepuscolo riportano valori median verde (talvolta blu) che sono maggiori del rosso.
Il consiglio degli esperti, se si usa una flat box, è quello di fotografare sovresponendo leggermente il blu e il verde, sottoesponendo leggermente il rosso.
Caricando un flat che ho convertito a colori, verifico che il pixel al centro del fotogramma (in genere la parte più luminosa di un flat-frame) non sia saturato:

>load flrgb1

regolo le soglie di visualizzazione, usando la coppia di cursori del box Threshold, finché noto il punto più luminoso e muovo il puntatore sui pixel confinanti. Nella parte inferiore destra della finestra principale, IRIS riporta le intensità nei canali rosso, verde, e blu del pixel posto direttamente sotto il puntatore: . Verifico che la zona più luminosa dell'immagine non si avvicini mai a 16384, ossia il valore di saturazione a 14 bit. È meglio mantenere il valore massimo intorno a 14000 - ossia 80-85%.
Quando i valori non mi soddisfano, da Av passo in Manual e modifico il tempo di esposizione, aumentando o diminuendo il valore, fino a quando il dato di median si approssima a 8192.
La sottoesposizione dei flat provocherà un aumento del rumore quando verranno divisi i flat dalle esposizioni principali durante l'elaborazione mentre la sovraesposizione li renderà invece totalmente inutili. Pertanto dovrà essere curata particolarmente la corretta esposizione.

I dark dei flat vanno ripresi senza alterare le impostazioni di scatto dei flat, ma occorre piazzare il tappo sull'obbiettivo.

LA CALIBRAZIONE

Salvo tutti i RAW acquisiti (Flat Frames, Light Frames, Dark Frames e Dark dei Flat) nella cartella che identifica la serata di acquisizione, dove c'è anche il file di testo che fornisce la descrizione del setup e descrive in dettaglio gli oggetti acquisiti.
Il contenuto di questa cartella non sarà mai modificato.
Avvio IRIS.
Seleziono File —› Settings..., imposto il tipo di file PIC ed introduco nella casella Working Path la cartella di lavoro f:\iris\dati\ (ad esempio).
Confermo e chiudo il box.
Premo l'icona della macchina fotografica sulla barra degli strumenti, in modo da aprire la finestra di configurazione della DSLR.
Imposto il binning 1×1, il modello di macchina fotografica ed il metodo d'interpolazione RAW interpolation method = LINEAR oppure GRADIENT.
Il metodo per interpolare dall'immagine RAW l'immagine a colori, indica il passaggio dalla matrice di Bayer all'immagine a colori ed è quindi necessario impostare il metodo che dovrà utilizzare IRIS per estrarre le informazioni acquisite dai tre pixel adiacenti RBG, un'operazione chiamata tecnicamente demosaicing.
Il risultato è un'immagine in cui ogni colore è codificato su 16 bit.
Il metodo LINEAR è il più rapido, ma è accettabile per quanto riguarda la risoluzione spaziale, ossia la risoluzione dei dettagli minimi. È un metodo sfruttabile nella maggior arte delle situazioni fotografiche.
Il metodo MEDIAN preserva la risoluzione originale ma applica un filtro che degrada il naturale aspetto delle stelle nelle immagini deep-sky; non è quindi consigliato.
Il metodo GRADIENT conserva al meglio la risoluzione. Il tempo di calcolo è lungo ma restituisce la migliore risoluzione dal punto di vista dei dettagli, sebbene introduca artefatti nelle immagini deep-sky.
È necessario fare alcune prove per comparare i risultati e poi fare una scelta da adottare per le riprese future.
Lascio non spuntato Apply nel White balance.
Confermo le scelte e chiudo il box.
Apro la finestra della linea di comando, selezionando l'icona Command Window sulla barra degli strumenti.
Sulla barra dei menu seleziono Analysis —› Display Data... per aprire la finestra di output.

La formula di calibrazione che porta - nel mio caso - alla produzione di un'immagine scientifica (science frame) è, sinteticamente:


                 (Light Frame - Dark Frame)
 Science Frame = --------------------------
                  (Flat Frame - Dark Flat)
 

La sua applicazione si concretizza grazie ai vari comandi gestiti da IRIS. Ecco come...

Creazione del Master Flat

Seleziono il menu Digital Photo —› Decode RAW files... per convertite i flat grezzi da RAW a PIC (CFA).
Dalla cartella dei RAW seleziono tutti i FLAT FRAME (.CR2) e li trascino nella finestra IRIS Decode RAW Files.
Chiamo fl la sequenza dei flat frame e poi premo il pulsante —› CFA.
IRIS elabora i RAW nel formato PIC; ogni dark sarà rappresentato in scala di grigi CFA.
Senza chiudere il box, premo il tasto ERASE, quindi converto i DARK dei FLAT (.CR2) da RAW a PIC (CFA), usando la stessa metodica, chiamando fd l'identificatore per i dark dei flat.
Premo il pulsante DONE appena IRIS ha terminato.
Creo il master dark dei flat sfruttando la mediana unendo osì i vari dark dei flat.
Scrivo, nella finestra di comando:

>smedian fd n                   n è il numero di scatti di Dark dei flat ripresi
>save flat-master-dark          salva il risultato della mediana
Esiste il corrispettivo box interattivo: seleziono il menu Preprocessing —› Make an offset, introduco gli stessi valori ma poi salvo comunque il risultato da riga di comando.
Un elenco esaustivo dei comandi di riga si preleva qui.
Esiste anche una versione PDF tradotta in italiano da un gruppo di volontari, scaricabile qui

Individuazione dei pixel caldi del master dark dei flat

In una DSLR esistono alcuni pixel definiti caldi (hot pixel) perché particolarmente luminosi; questo numero può variare tra 50 e 200.
. Generalmente con pose superiori a 90 secondi è normale aggirarsi intorno a 300/400 hot pixel. Il fatto che IRIS trovi alcune centinaia di pixel caldi è normale; su un sensore di milioni di pixel, 500 pixel caldi non rappresenteranno certo un problema.
Questi pixel saranno "marchiati" e non verranno presi in considerazione nelle varie elaborazioni, ma saranno sostituiti per interpolazione con quelli adiacenti.
Lo scopo di marcare questi pixel, sta nel fatto che la loro intensità anomala, può causare artefatti in fase di elaborazione.
Per individuare e registrare i pixel caldi si utilizza il comando FIND_HOT.
Nei dark dei flat mi aspetto pochi pixel caldi, del resto le esposizioni sono molto corte; utilizzo quindi il comando find_hot con la soglia data dalla relazione:
mean + (16 × sigma).
I dati di [mean] e [sigma] sono parametri statistici che prelevo grazie al comando STAT.
Carico il master dark dei flat e lancio STAT:

>load flat-master-dark
>stat

Sulla finestra di output leggo le informazioni, ad esempio:
Mean:  1025.9    Median: 1026
Sigma:    9.4
Maxi.: 5392.0    Mini.: 675.0

Sfruttando la relazione mean + (16 × sigma), provo ad applicare differenti valori di soglia a find_hot, fino a quando non rilevo da 50 a 140 pixel caldi circa; la soglia indicata nell'esempio qui sotto, 1176.3, è stata calcolata sostituendo a mean 1025.9 e a sigma 9.4; si ha: 1025.9 + (16 × 9.4) = 1176.3.

>find_hot flat-cosmetic 1176.3   fornisce troppi pixel caldi (> 2000): tento soglie maggiori
...
>find_hot flat-cosmetic 1190.3   è più corretto...
                                     nella finestra di output leggo:
                                     Hot pixels number: 111
flat-cosmetic è il nome del file nel quale IRIS immagazzina l'elenco di pixel caldi;

Avvertenza: la formula non soddisfa appieno l'esigenza di rilevare il corretto numero di pixel caldi, avendo la stessa una valenza generale. Di fatto, con il mio intervento, vario la soglia calcolata con la formula, sino ad ottenere un numero di pixel caldi cercati. Il file flat-cosmetic è automaticamente sovrascritto ad ogni iterazione del comando find_hot.

Calibrazione dei flat con il master dark dei flat

Utilizzo l'opzione menu Digital Photo —› Preprocessing...
Il manuale IRIS dice che questa funzione è progettata per calibrare i light frames con un master dark, master flat e master offset.
Risulta subito chiaro che mi trovo in una condizione anomala: non ho bisogno di dividere i flat per un altro flat e non ho a disposizione un offset frame, perché non acquisiti per la calibrazione dei miei light frames, dato che ho rispettato i tempi di posa.
È necessario ricorrere ad un trucco mettendo alcuni valori fittizi; creo quindi sia un flat frame fittizio, sia un offset fittizio.
Carico un file qualsiasi, che abbia le stesse dimensioni dei frames, e lo riempio con i pixel del valore desiderato. Nella finestra della linea di comando, scrivo:

>load fd1                        carico uno dei file di flat dark
>fill 0                          offset = 0
>save dummy-offset               salvo il file di offset fittizio
>fill 1                          flat = 1
>save dummy-flat                 salvo il file di flat fittizio

Seleziono il menu Digital Photo —› Preprocessing... ed inserisco questi campi:
Input generic name     fl
Offset                 dummy-offset
Dark                   flat-master-dark ("Optimize" = NON spuntata)
Flat-field             dummy-flat
Cosmetic file          flat-cosmetic
Output generic name    fld
Number                 il numero di flat acquisiti e presenti nella sequenza

IRIS sottrae sia l'offset (che vale zero), sia il master dark dei flat da ogni flat selezionato, dividendo il risultato per il flat fittizio (che vale uno), correggendo i pixel caldi con l'ausilio di flat-cosmetic.
fld è il flat calibrato.

Generazione del Master flat

Ora che ho il flat calibrato con i dark flat, seleziono Digital Photo —› Make a flat field... ed inserisco le voci corrette nei campi della box:

Generic name            fld
Offset image            dummy-offset
Normalization value     20000
Number                  il numero di flat acquisiti e presenti nella sequenza

IRIS sottrae l'offset fittizio (che vale zero) ai flat calibrati, normalizzandoli in modo che abbiano la medesima luminosità e poi li combina con una mediana.
Il fattore di normalizzazione tipico è 5000 ADU, adatto quando si lavora con immagini RAW prodotte da una macchina fotografica digitale: il rumore digitale resta trascurabile con tale costante.
20000 ADU è il valore consigliato nel tutorial IRIS "DSLR roadmap processing".
Conviene fare delle prove; infatti, dopo la sintesi del flat-field, potrai notare che la sua intensità mediana è uguale al valore di normalizzazione scelto.
Usa il comando STAT per la verifica.
Estrema attenzione va posta nella scelta della costante di normalizzazione, soprattutto quando alcuni pixel nelle immagini si avvicinano al valore 32767. Il comando STAT torna ancora in aiuto per determinare questa condizione ed in tal caso dovrai ridurre il valore della costante di normalizzazione.
NOTA: il risultato è solo in memoria, adesso lo salvo sul disco:

>save master-flat

IRIS utilizza decine di file di appoggio che elimino.
Lascio solamente master-flat.pic e dummy-offset.pic.

Creazione del Master dark

Seleziono il menu Digital Photo —› Decode RAW files... per convertite i DARK FRAME (.CR2) da RAW in PIC (CFA).
Chiamo questa sequenza d, che indica dark.
A questo punto creo il master dark con la mediana e nel box delle righe di comando scrivo:

>smedian d n                dove n è il numero di dark ripresi
>save master-dark           salvo il risultato su disco fisso   

Identificazione dei pixel caldi nel master dark

Adesso devo identificare i pixel caldi nel master dark; in questo caso saranno dell'ordine di qualche centinaio, a causa dei tempi di ripresa. Sfrutto ancora la relazione mean + (16 × sigma); carico il master-dark e traccio le statistiche da riga di comando:

>load master-dark
>stat
La finestra di output presenterà una serie di dati:
Mean: 1025.1         Median: 1026
Sigma: 7.8
Maxi.: 15847.0       Mini.: 510.0
Cerco i pixel caldi e contemporaneamente salvo la lista degli stessi:
>find_hot cosmetic 1149.9
                                  la finestra di output indica:
                                  Hot pixels number: 25

cosmetic è il nome del file nel quale IRIS scrive l'elenco dei pixel caldi.
Il parametro soglia per find_hot indicato nell'esempio (1149.9) è stato calcolato sostituendo a mean 1025.1 e a sigma 7.8; si ha 1025.1 + (16 × 7.8) = 1149.9.
Sfruttando la relazione mean + (16 × sigma), provo ad applicare differenti valori di riferimento a find_hot, fino a quando non rilevo da 100 a 200 pixel caldi, circa.
Cerco quindi i pixel caldi e contemporaneamente salvo la lista degli stessi:

>find_hot cosmetic 1089.9
                                la finestra di output indica:
                                Hot pixels number: 201

Il valore soddisfa il criterio.
Come prima, cancello tutti i files di appoggio nella cartella di lavoro.
Lascio solamente master-flat.pic, dummy-offset.pic, master-dark.pic e cosmetic.lst.

Calibrazione delle Immagini light

Seleziono il menu Digital Photo —› Decode RAW files... per convertite i LIGHT FRAME (.CR2) da RAW in PIC (CFA).
Chiamo questa sequenza l, la consonante elle, che indica light.

Calibrazione delle immagini light con master flat, master dark e mappa dei pixel caldi

Da menu scelgo Digital Photo —› Preprocessing... ed inserisco i seguenti valori:

Input generic name        l                (l di light)
Offset                    dummy-offset
Dark                      master-dark ("Optimize" = NON spuntata)
Flat-field                master-flat
Cosmetic file             cosmetic
Output generic name       ldf
Number                    n

ldf sono i light frames con dark e flat applicati.
n è il numero di immagini light riprese.
Per ogni light frame, IRIS sottrae il master dark, divide per il master flat, ripara i pixel caldi e salva il risultato nel file ldf.
Se la sottrazione del dark produce dei buchi neri nelle immagini allora è necessarioù creare un vero master offset e usare quello per realizzare il master dark. Solo quando si calibrano le immagini utilizzando il vero master offset, è necessario spuntare Optimize: si avrà una migliore sottrazione del dark ma con il possibile rischio di avere un maggiore bagliore dovuto all'amplificazione del segnale nel file risultante.
Per ottimizzare la sottrazione del dark, spuntando optimize, è necessario aprire una delle immagini da calibrare - ad esempio l1 - selezionando con il mouse una zona priva di stelle (scura), quindi premere [ OK ] nella finestra di Preprocessing.

Conversione da CFA a RGB

Le immagini light calibrate sono una matrice di grigi e devono essere convertite in RGB; nella riga di comando scrivo:

>cfa2pic ldf ldfrgb n            n è il numero di immagini light.

IRIS elabora i dati di colore mancanti per convertire le immagini light calibrate dal formato CFA (ldf) in immagini RGB a colori (ldfrgb).

Allineamento

Utilizzo una procedura IRIS automatica di trasformazione geometrica da riga di comando che permette l'allineamento, rotazione e riscalatura: tutte funzioni indispensabili prima di sommare tra loro le immagini. Sulla riga di comando, scrivo:

>setspline 1
>coregister2 ldfrgb ldfrgball n       con n il numero di immagini light

La trasformazione geometrica COREGISTER2 richiede molto tempo, anche alcune decine di minuti.
A volte, con l'applicazione di questa funzione di trasformazione geometrica, ho avuto dei problemi; IRIS ritorna alcune notifiche d'errore (poche stelle o altre indicazioni), pertanto sono passato ai box interattivi, selezionando menu Processing —› Stellar Registration..., ed ho provato, in alternativa, le opzioni One Star oppure One Matching Zone (dopo aver selezionato un'area ampia con il mouse) o Global Matching.
Se le immagini sono affette da fenomeni evidenti di rotazione di campo, si rende necessaria una trasformazione affine. IRIS calcola le traslazioni rotazioni e scalature per allineare correttamente le immagini delle sequenze. Questo procedimento è attuabile tramite il metodo Three matching zone, ottimizzato per ampi campi stellari ripresi proprio con le DSLR.
Le immagini sono assimilate cercando distribuzioni simili di stelle in tre zone dell'immagine, automaticamente scelte dal programma. La dimensione di ciascuna zona è definita univocamente dal parametro numerico Zones size nel box Stellar Registration. L'esempio mostra una tipica selezione effettuata arbitrariamente da IRIS ed il significato assunto dal parametro Zone size. In definitiva, l'utente non deve circoscrivere le zone con il mouse, ci pensa IRIS a scegliere quali saranno le tre aree idonee al processo.

Ritaglio

Il metodo che uso per sommare le immagini è il Sigma-Clipping.
L'algoritmo matematico dichiede che ogni immagine nella sequenza sia normalizzata, in modo che i livelli di fondo siano uguali.
Per normalizzare ogni immagine nella sequenza è necessario procedere prima al ritaglio dei bordi di ogni immagine, in modo da eliminare tutti i pixel che IRIS ha inserito durante la trasformazione geometrica, ed ottenere così immagini con le stesse dimensioni.
Procedo in questo modo:
a) Sommo in memoria le immagini allineate, scrivendo il comando:

>add_norm ldfrgball n         con n il numero di immagini nella sequenza.

A questo punto, a video, ho il risultato della somma... Non è ancora salvato sul disco.
Neutralizzo prima lo sfondo per visualizzare il risultato della somma.
b) Visualizzo l'immagine a dimensioni intere, poi con il mouse disegno un rettangolo in una porzione d'immagine vicina al centro che contenga per la maggior parte il fondo cielo (senza galassie, nebulose, stelle), quindi scrivo questo comando:

>black

c) Visualizzo al meglio l'immagine, premendo il pulsante Auto nella finestra di Threshold. Con le barre di scorrimento della finestra principale mi posiziono nell'angolo inferiore sinistro dell'immagine. Verifico dove finisce l'immagine utile ed inizia l'area aggiunta durante la trasformazione geometrica. In genere noto una netta variazione del gradiente, spesso un netto salto al nero oppure linee di sovrapposizione di più immagini.
Mi piazzo con il puntatore dove inizia l'area d'immagine pulita e premo il tasto sinistro del mouse; IRIS scrive nella finestra di Output le coordinate del punto sotto il puntatore. Ripeto l'operazione nell'angolo superiore destro dell'immagine ed ottengo le coordinate del punto nella finestra di output:

x=16    y=19    i=101    risultato del primo click del mouse all'angolo inferiore sinistro
x=4255  y=2832  i=115    risultato del secondo click del mouse all'angolo superiore destro
Uso ora le coordinate che trovo nella finestra di Output per ritagliare in modo appropriato la serie delle immagini.
Nella finestra delle righe di comando, scrivo:
>window2 ldfrgball ldfrgballcrop x1 y1 x2 y2 n

n rappresenta il numero di immagini nella sequenza;
x1, y1 sono le coordinate del punto inferiore sinistro;
x2, y2 sono le coordinate del punto superiore destro;
ldfrgball è la sequenza di immagini allineate;
ldfrgballcrop è la sequenza delle stesse immagini a cui ho cassato le aree aggiunte dalla trasformazione geometrica.

Normalizzazione

Le immagini ritagliate devono subire il processo di normalizzazione del livello di fondo cielo. Questo si ottiene impostando automaticamente il livello mediano di ogni immagine, operazione che azzera il fondo cielo.
Il processo aumenta la dinamica disponibile al risultato (sommato) e permette al processo Sigma-Clipping di lavorare in modo appropriato.
Il comando che scrivo è:

>noffset2 ldfrgballcrop ldfrgballcropnorm 0 n
n il numero di immagini nella sequenza;
0 è il livello di fondo richiesto. A volte è meglio inserire quello fornito dal comando BG, riferito ad una delle immagini ldfrgballcrop. Suggerisco di fare le due prove per verificare quale opzione meglio si adatta alle immagini riprese;
ldfrgballcropnorm è la lista delle n immagini processate e normalizzate da noffset2.
Da menu si può avviare NOFFSET2 come Processing —› Offset normalisation of a sequenze.

Somma

La sommatoria di una sequenza, che tutti sanno produrre un'immagine con un rapporto S/N elevato, porta con se anche elementi indesiderati come raggi cosmici, scie di satelliti o aeroplani, se presenti nei light frames.
Dell'operatore mediano, s'è messa in luce la proprietà di rimozione di questi segnali indesiderati, ottenendo però un frame con un rapporto S/N molto basso rispetto alla sommatoria.
È possibile sfruttare l'algoritmo Sigma-Clipping, un operatore ibrido che combina le proprietà della sommatoria e della mediana ma non considera nella somma quei pixel il cui valore è significativamente non buono, ovvero quei pixel la cui differenza rispetto al valore medio dei dati riscontrati in tutte le immagini sia superiore di [dSIGMA] volte la deviazione standard (sigma) di detti valori.
Il Sigma-Clipping è quindi molto utile quando si vuole migliorare l'efficienza del rapporto segnale rumore al posto di usare una semplice somma e, contemporaneamente, avvalersi della combinazione con la mediana, che riduce i pixel legati ai raggi cosmici, tracce satellitari e altro evento registrato su un solo frame e non su altri.
Il processo può essere ripetuto più volte, [ITERAZIONI], ed ogni volta è effettuata una nuova analisi statistica dei pixel rispetto alla precedente.
Per essere davvero efficiente, il comando deve essere eseguito su un grande numero di immagini da combinare.
Valori adeguati per [dSIGMA] sono compresi tra 1.5 e 5.0. Il parametro [SATURAZIONE] indica se la massima intensità delle immagini combinate sia da normalizzare a 32700 [saturazione = 1] quando l'intensità supera 32767, oppure no [saturazione = 0]. Per evitare la saturazione delle stelle più luminose, imposto il flag SATURAZIONE = 1.
Se decido di saturare le stelle più luminose, per avere maggior dinamica sui dettagli più deboli, il flag di SATURAZIONE lo imposto a 0 (zero).
Con IRIS, il Sigma-Clipping stacking si attua con questa riga di comando:

>composit ldfrgballcropnorm dSigma Iterazioni Saturazione n
ldfrgballcropnorm è la lista delle n immagini che devo sommare, processate in precedenza da noffset2.
È possibile provare i seguenti parametri (anche se suggeristo d'effettuare sempre alcune prove comparative):
dSigma = 3
Iterazioni = 1
Saturazione = 1
Se nel risultato finale si nota ancora una scia di aereo, meteora, satellite, ecc., allora è possibile:
ridurre dSigma a 2;
oppure
aumentare il numero delle iterazioni a 2 o più.
Scrivo, ad esempio:
>composit ldfrgballcropnorm 3 1 1 n        n è il numero di immagini nella sequenza
Il risultato finale del Sigma-Clipping risiede in memoria; lo salvo in un file denominato science.
>save science
Qui finisce il processo di calibrazione, quindi passo ad alcune operazioni di rifinitura (interventi di COSMESI); infatti:
    la calibrazione ha ridotto gli effetti del rumore ed i difetti introdotti dal sistema ottico grazie ai master dark e master flat;
    le immagini calibrate, dal formato CFA in scala di grigi, le ho trasformate in RGB (a colori);
    al processo di allineamento ha fatto seguito quello di ritaglio ed infine la normalizzazione e somma, che hanno prodotto la science frame.

L'immagine è virtualmente pronta per proseguire il processo con IRIS oppure essere esportata in un formato compatibile con i programmi di elaborazione, come The Gimp, Adobe Photoshop o simili.
Di seguito sono mostrati gli nterventi cosmetici con IRIS, anche se so per certo che con Photoshop e molta esperienza, si possono ottenere grandi risultati.

Rimozione dei gradienti

Il sito da cui scatto foto non ha un elevato tasso d'inquinamento luminoso, ma la difformità dell'illuminazione della chiesa parrocchiale e delle strade si esprime con una distribuzione diseguale nel cielo e spesso le immagini rivelano un gradiente di fondo non omogeneo. A volte anche i flat frames, non ben correlati con i light frames, concorrono a generare un pessimo fondo.
Per rimuovere i gradienti, sfrutto il sistema automatico che illustro, applicabile PRIMA del bilanciamento del bianco, ma invito a leggere attentamente il sito del prodotto IRIS, in cui sono spiegati molto bene altri metodi per eliminare i gradienti con il ricorso a maschere binarie.
Carico la science frame:

>load science

L'esame dell'immagine rivela un cielo non uniforme a causa della presenza della Luna e di un forte inquinamento luminoso.
iduco le dimensioni in modo d'avere una visione d'insieme del soggetto e del cielo.
Muovo i cursori nella finestra di Threshold finché non vedo chiaramente lo sfondo.
Per fare prima premo il pulsante Auto.
Il comando utilizzato per rimuovere i gradienti di fondo cielo è SUBSKY, che calcola il livello del fondo cielo e lo sottrae dall'immagine. Il livello è determinato usando 2000 punti dell'immagine (non contemplando stelle e galassie); IRIS crea quindi un'immagine sintetica da sottrarre a quella originale.
Il comando SUBSKY non ha parametri ma si appoggia a quelli fissati da un comando che definisce sia l'ordine del polinomio che sarà applicato con il comando SUBSKY, sia la soglia oltre cui rilevare il rumore di fondo dell'immagine.
Il comando in questione è SETSUBSKY [sigma] [poly_order]
Il coefficiente sigma è il parametro di esclusione utile per evitare che troppi punti siano rilevati nella nebulosità diffusa o in una galassia. Un valore piccolo di questo parametro fa sì che le nebulose non siano confuse con il fondo cielo non uniforme, per contro il rischio è quello di non avere abbastanza punti per ridurre in modo apprezzabile il gradiente di fondo cielo.
Un polinomio poly_order di ordine 2 o 3 è generalmente sufficiente; il massimo consentito è 7.
I valori standard che possono calzare alla maggior parte delle immagini sono:

[sigma] = 5
[poly_order] = 3
NOTA: qualora lo sfondo fosse uniforme, passo direttamente ad effettuare il bilanciamento del bianco RGBBALANCE.
Di solito così non è, allora itero la procedura di rimozione dei gradienti dello sfondo, in modo da raggiungere il risultato desiderato per approssimazioni successive.
Ripeto questa sequenza di comandi di riga, fino ad ottenere un fondo con la migliore uniformità:
>load science                      e agisco sul Box Threshold come indicato
>setsubsky sigma poly_order
>subsky

Normalmente, come primo tentativo, se nello sfondo il gradiente è lineare, uso:

sigma = 4;
poly_order = 1.
Normalmente il gradiente dello sfondo è più complesso e per eliminarlo è richiesto un ordine polinomiale più elevato.
In tale caso, seguo questo criterio:
poly_order = 3, 4 o maggiore;
modifico iterativamente il parametro di sigma con valori più alti o più bassi.
Dopo ogni calcolo, i punti individuati dal programma sono mostrati nella forma di piccole croci; per osservare l'immagine sottoposta al processo di rimozione dei gradienti, è necessario rinfrescare l'immagine a video, ad esempio modificando le soglie di visualizzazione.

Quando il risultato è soddisfacente (vedi sopra) salvo l'immagine sul disco:

>save science-subsky

Bilanciamento del bianco (ottenere un cielo nero) e dei colori

Carico la science frame o quella ottenuta dopo la rimozione del gradiente:
>load science-subsky        oppure solo "science", se lo sfondo era uniforme.

Aggiusto i cursori di visualizzazione (box Threshold) per osservare nel migliore dei modi l'immagine risultante dalla somma (e dalla rimozione del gradiente).
Seleziono l'area più grande possibile, priva di stelle luminose o altre deboli caratteristiche come galassie, nebulose o ammassi globulari, disegno un rettangolo in quell'area trascinando il puntatore tenendo premuto il tasto sinistro del mouse.
Ottenuto il rettangolo, eseguo i comandi:

>black
>rgbbalance R G B
                       Oppure usare il box interattivo, apribile dal menu:  View —› White balance 
>save science-subsky-wb

R, G, e B sono i valori necessari a compensare la diversa sensibilità alla luce rossa, verde e blu.
La mia DSLR non è stata modificata, pertanto valgono i suggerimenti di Christian Buil:

R = 1.96 — provare anche 1.3
G = 1.00 — provare anche 1.0
B = 1.23 — provare anche 1.1

Verifico che non vi siano dominanti cromatiche nell'immagine risultante. Spesso effettuo più tentativi, ripetendo la serie dei comandi a partire dal caricamento della science frame o di quella ottenuta dopo la rimozione del gradiente.
I valori di R, G e B sono coefficienti moltiplicativi applicati ai valori dei pixel rossi, verdi e blu, eseguendo il comando di rgbbalance.
Valori maggiori di 1.0 possono comportare il rischio di saturare alcuni dettagli nell'immagine se hanno giÀ un valore di partenza prossimo a quello di saturazione.
Per bilanciare il colore contano solo i valori relativi, quindi è possibile dividere questi valori per il più grande dei tre (normalizzazione), in modo che nessuno di essi abbia un valore maggiore di 1, controllando, a turno, che per nessuno di essi si raggiunga la saturazione.
Per esempio, posso dividere (R) 1.38, (G)1.00 e (B) 1.23 per (R) 1.38 ed usare valori normalizzati di 1.00, 0.72, 0.89 per prevenire fenomeni di saturazione.
Il comando BLACK calcola i valori mediani di R, G e B all'interno della zona selezionata, e poi li sottrae da tutta l'immagine; risulta inoltre che il valore mediano all'interno del rettangolo selezionato sarà esattamente pari a (R) 0, (G) 0, (B) 0.
Il comando black, pertanto, rimuove qualsiasi distorsione residua del fondo, che non è stata rimossa dal comando noffset2 o dal comando subsky.
La fonte della distorsione residua del fondo è il fondo cielo luminoso, causa d'inquinamento luminoso anche leggero, che almeno nelle mie riprese, introduce una dominate rossiccia (ma varia in funzione del luogo) che rende i valori R, G e B calcolati dal comando black disuguali fra loro.
La base di questa operazione è che la rimozione di questo fondo non uniforme è essenziale per produrre un accurato bilanciamento del colore.
È possibile, alla fine, lanciare un altro comando BLACK.

Operazioni sui livelli (Stretching dei colori)

L'algoritmo arcoseno iperbolico qui utilizzato effettua un strech non lineare della dinamica dei livelli, ed è particolarmente efficace con le immagini a colori del cielo profondo.
Questo tipo di immagini pongono, in generale, un problema a causa della grande dinamica degli oggetti astronomici. Ad esempio è difficile visualizzare simultaneamente i colori delle deboli braccia d'una galassia e del centro.
Il calcolo del logaritmo della componente rossa, verde e blu dell'immagine a colori è una soluzione possibile, ma di rado soddisfacente per accentuare i colori, ma il problema del logaritmo proviene dalla singolarità quando il segnale è debole (il logaritmo di un'intensità nulla o negativa non è definito, ossia è pari a infinito) e dall'asimmetria del rumore nelle parti poco intense dell'immagine.
L'algoritmo che sfrutta l'arcoseno iperbolico introduce una nuova scala delle luminosità (vedere R. Lupton nel 1999, Astronomical Journal, 118,1406-1410) con proprietà molto interessanti se applicata ad immagini a colori, poiché mette bene in evidenza l'indice dei colori degli oggetti (vedere R. Lupton et all, PASP, 116,133-137).
Il contrasto dei colori è accentuato molto fortemente, mentre viene contenuto l'aumento del rumore. La tecnica dell'arcoseno iperbolico, ad esempio, è utilizzata per visualizzare le immagini acquisite dal telescopio spaziale Hubble.
L'algoritmo permette, in questo caso, di accentuare in modo spettacolare i vari colori delle innumerevoli galassie che tappezzano il fondo cielo.
Il comando è ASINH [stretch] [intensity]
Accessibile anche dal menu View —› Color stretching...

Nota: con l'uso della box Color stretching (asinh), il parametro Intensity ha un'escursione limitata, pertanto suggerisco di avvalersi della riga di comando per lo stiramento non lineare della dinamica dei livelli di colore
Il parametro [stretch] permette di aggiustare il fattore non-lineare; si tratta di un fattore moltiplicativo atto a prevenire la saturazione o per rendere il risultato più luminoso. Un valore nullo corrisponde al normale stretch lineare. Questo fattore, normalmente, è compreso tra 0.001 e 0.1.
Se 0.05 è sinonimo di uno stretch abbastanza equilibrato, 0.1 è uno stretch molto aggressivo, mentre 0.001 uno stretch abbastanza leggero.
Il parametro [intensity] aggiusta l'intensità dell'immagine finale.
Un caratteristico valore per questo parametro è compreso tra 1 e 50.
Provo con pazienza vari valori fino a quando non ottengo il maggior dettaglio possibile senza estrarre il rumore di fondo a livelli inaccettabili.
Al primo tentativo, se devo elaborare immagini di galassie, uso:
Stretch = 0.05
Intensity = 20
Scrivo quindi:
>asinh 0.05 20
Jim Solomon, sul suo sito, suggerisce l'uso di Stretch = 0.005 e Intensity = 30.
Anche qui... Occorre fare un po' di tentativi e segnare su un quaderno qual è il miglior risultato otenuto, in funzione del soggetto interessato all'elaborazione.
Per ogni valore di Stretch, cerco il valore di Intensity più adatto per evitare una saturazione dell'immagine con valori superiori a 32767. È necessario fare delle prove; per trovare i valori corretti dei parametri della funzione, itera varie volte la sequenza dei comandi di riga, fino a quando non trovi il risultato desiderato.
Intervengo anche sulla soglia inferiore di visualizzazione del comando visu, variandola da -5000 a -4000, a salire verso valori prossimi allo zero o positivi.
Agisco anche sui cursori di visualizzazione del box Threshold.
>load science-subsky-wb
>asinh Stretch Intensity
>visu 32767 -5000
Come per il parametro Stretch, cambiando anche di poco Intensity è possibile generare un grande effetto.
Dopo tutti i tentativi, se l'immagine è interessante, la salvo sul disco:
>save science-subsky-wb-asinh

L'immagine, ancora una volta, è pronta per proseguire il processo con IRIS oppure essere esportata in un formato compatibile con i programmi di elaborazione, come The Gimp, Adobe Photoshop o simili.

I processi cosmetici che seguono operano pesantemente sull'immagine, rendendola poco appetibile a The GIMP o Photoshop

Sfocatura selettiva

Il comando SBLUR genera una sfocatura tanto più evidente, quanto più è luminoso l'oggetto.
Questa funzione viene spesso utilizzata in riprese di campi stellari per generare l'effetto Akira Fujii e mettere in evidenza, per esempio, le stelle principali delle costellazioni o distinguere le popolazioni stellari.
La sintassi è: SBLUR [SIGMA] [GAMMA]
♦ Il parametro [SIGMA] indica il grado di sfocamento (in genere compreso tra 2 e 15);
♦ Il parametro [GAMMA] è legato alla luminosità delle stelle (un valore caratteristico è compreso tra 4 e 10).
Per ottenere buoni risultati, le stelle più brillanti non devono essere sature.
Nelle immagini a colori, la funzione SBLUR si può associare alla funzione ASINH, ottenendo effetti grafici notevoli.
Per fare un esempio pratico, applico SBLUR all'ammasso aperto M37 ripreso con una Canon EOS 450D a fuoco diretto di un SC 8" a f/10 (composizione di 6 immagini esposte 15 secondi a 800 ASA), da Berzano di San Pietro - AT, il 4 Dicembre 2010.


Immagine originale (compositazione di 6 immagini)

>sblur 5 7


Immagine dopo l'applicazione del comando SBLUR

Come si può notare l'effetto sulle stelle più luminose è decisamente evidente. In quest'ultima immagine risulta ben visibile la differenza tra le varie popolazioni stellari.

Applicazione della maschera opaca

La maschera opaca è un metodo utilizzato per aumentare il dettaglio di alcune parti precise dell'immagine. È uno strumento potente per visualizzare tutta la dinamica, ma il trattamento è profondamente non lineare, così il miglioramento della visualizzazione si traduce nell'impossibilità di utilizzare, in seguito, l'immagine per misure scientifiche.
La tecnica permette, in genere, di vedere la struttura del centro di una galassia e la debole estensione delle braccia, ma la si può estendere anche ad altri aspetti di altre immagini.
Per prima cosa devi creare la maschera opaca, a partire dall'immagine da trattare, applicando una sfocatura gaussiana. La sequenza dei comandi è la seguente:

>load immagine                  carica l'immagine da trattare
>gauss [intensità]                  applica la sfocatura gaussiana
>save mask                  salva la maschera
Più la sfocatura sarà intensa, più oscurerà le corrispondenti parti dell'immagine da processare.
Una volta che hai il file con la sfocatura, devi applicare la maschera opaca al file orifinale dal menu View —› Opacity mask...
L'effetto (forza della maschera) può essere aggiustato interattivamente grazie al cursore presente nel box interattivo.

Ecco un esempio d'applicazione del metodo della maschera su M51, l'immagine in formato PIC che si trova nel pacchetto IRIS, assieme a quella dell'osservatorio del Pic du Midì.

>load m51 >gauss 15 >save mask

Salva su disco mask.pic
>load m51 View —› Opacity mask...
Scrivo il nome della maschera sfocata (mask.pic) nel campo mask, poi sposto il cursore per variare iterativamente la forza della maschera, osservando a video cosa accade. In questo esempio sposto il sursore per ottenere 0,48.

Il risultato lo si apprezza nell'immagine qui a destra.
Se l'immagine mi soddisfa, la salvo su disco fisso:
>save m51-gauss


© Paolo B.
www.000webhost.com