I dati che stiamo prendendo in considerazione sono dei dati che banalmente parlando (infatti ci siano delle definizioni molto rigorose in tal proposito) hanno una relazione tra tempo misurato e tempo di esposizione (cioè il tempo che ha subito correzione).
Il problema è conoscere questa relazione.
Per avere una idea della relazione tali dati si possono "graficare", cioè essere rappresentati tramite una curva su un piano X,Y che, in questo caso nostro specifico, è una curva rappresentata da una linea (come ha detto correttamente
@zone-seven) che può assumere vari "andamenti". Questi andamenti possono essere dei più variegati e il più delle volte per questioni di calcolo matematico vengono rappresentati tramite linee rette, paraboliche, logaritmiche, esponenzianli e via dicendo.
Cercare una linearità tra i dati è una propria scelta ma non necessariamente corrisponde alla realtà (e praticamente per esperienza vi dico che non corrisponde mai per tutta una serie di motivi). Quello su cui bisogna fare attenzione è non confondere la rappresentazione dei dati con i dati stessi: non esiste un grafico migliore ma solo una rappresentazione migliore.
Ad esempio, a corredo delle mie tabelle propongo 4 grafici:
- lineare lineare su un intervallo di 100s
https://www.gerardogiordano.com/gg/tool ... no_com.png
e lo faccio perché così si può vedere fin dove (cioè per quali tempi) i produttori hanno analizzato le loro pellicole nel datasheet
- lineare lineare su un intervallo di 10s
https://www.gerardogiordano.com/gg/tool ... no_com.png
siccome col precedente grafico non è possibile vedere in dettaglio cosa accade per pochi secondi (che la situazione di esposizione più comune) restringo la scala a 10s così da avere una migliore rappresentazione
- lineare logaritmico su un intervallo di 100s
https://www.gerardogiordano.com/gg/tool ... no_com.png
questa rappresentazione è la stessa del primo caso con la differenza che sulle ordinate (Y) viene rappresentato il logaritmo del valore di Y: in questo modo si staccano meglio le curve (visivamente parlando non ma non in termini di contenuti) sui tempi bassi pur avendo una visione globale per i tempi lunghi
- logaritmico logaritmico su un intervallo di 100s
https://www.gerardogiordano.com/gg/tool ... no_com.png
come nel caso precedente ma avente una rappresentazione logaritmica sulle ascisse (X): in questo modo si staccano meglio le curve (sempre visivamente parlando non ma non in termini di contenuti) un po' dappertutto ma si perde il senso (per chi non è pratico di logaritmi) delle situazione
Questo per dire che si tratta solo di rappresentazione degli stessi dati quindi un eventuale fit con una curva è indipendente dalla rappresentazione utilizzata.
Quando parlo di fit ad una curva significa che suppongo che l'andamento sia di una certa forma (logaritmico, a potenza, lineare, etc.) e valuto tramite degli algoritmi matematici opportuni quanto i dati in mio possesso "somigliano" a quella curva. Quindi se trovo un formula relativa a quei dati (leggo che ci sono siti che propongono formule, ma lo stesso vale per me che propongo tabelle) sono solo congetture su cosa potrebbe accadere.
Tengo a precisare una cosa.
Nelle tabelle, in questo caso della Fomapan 400, si vede che fino a 0.5s (cioè 1/2s) non c'è correzione, poi a partire da 1s si applica 1.5x. Prevedere una variazione "a spigolo" non è fisicamente corretto, la natura si presenta sempre con variazioni continue (almeno a livello macroscopico) ragion per cui andrebbero evitate variazioni di pendenza che non siano continue.
Aggiungo una domanda: in questo esempio, a 0.6s cosa succede?
Certamente bisogna aumentare il tempo ma siamo sicuri non adrebbe aumenato anche a 0.5s? Non è strano che fino a 0.5s tutto file estremamente liscio e poi improvvisamente si scatena l'inferno?
Questo problema me lo sono posto per le pellicole aventi dei datasheet fatti un poco meglio, tipo la TriX, per i quali facendo dei fit rimanendo fedeli ai valori dei datasheet (cioè impostando obbligatoriamente un passaggio per tali punti) escono fuori valori anomali utilizzando le funzioni tipiche per il fit dei dati. Allora ho proposto una ulteriore curva (GER), leggermente diversa da quella del datasheet, che risolve i problemi di continuità nei dati. Solo TriX ha il problema? Nooo: solo TriX ha fatto meglio il datasheet e comunicato più dati! Gil altri mettono 3 punti e via... ma per 3 punti hai voglia di farci passare curve e abbiamo ogni volta un coefficiente di correlazione pari a R=1... tanto che ci vuole e trovare un polimonio che passa di lì...
Quindi riprendendo il discorso della consistenza dei dati forniti dai datasheet, ad esempio, sempre nel caso della Fomapan 400 (ma vale per tutti i datasheet), ritengo molto strano che a 10s c'è il fattore 6x e a 100s diventa 10x: ma proprio 6x? perché non è capitato 6.1x? La risposta è perché è tutto molto vago. Ma è normale che sia vago, non vengono specificate le condizioni di scena, sviluppo (agenti, tempi, concentrazioni, etc.) quindi che ci devono dire? Pertanto se
@kiodo propone con la sua regressione 30s e io 34s come si fa a sapere qual'è quello giusto? In ogni caso siamo nel margine di 1/3 di stop (che a 30s è 10s), ragion per cui propongo in ogni mia tabella il margine di errore sul risultato.
Riguardo alla proposta di
@Valerio Ricciardi di integrare tanti cluster statistici per ottenere una cirva via via più raffinata credo che si possa fare purché ogni nuovo record aggiunto sia prodotto nelle medesime condizioni di contrasto di scena, tipo sviluppo (agente temperatura, agitazione, etc.), il che lo rende praticamente inapplicabile, perché per avre un campione statistico sufficientemente valido occorrono decine e decine di dati tutti dello stesso tipo (e ogni pellicola va riesposta ai diversi tempi di esposizione).
Per meglio dare delle indicazioni su ciò che accade in regime di non reciprocità sto mettendo a punto un procedura dove ognuno può facilmente (ed economicamente visto che si utilizzerà un singolo fotogramma per il test) trovare i "suoi" tempi migliori, cioè tenendo conto del proprio metodo di lavoro (scelta dei contrasti e degli sviluppi) per meglio orientarsi sulle correzioni da apportare.
Gerardo
P.S.
@Valerio Ricciardi: per le pellicole a colori va apportata un ulteriore correzione come giustamente hai fatto notare riguardo il bilanciamento dei colori. Trovi un esempio qui:
https://www.gerardogiordano.com/gg/tool ... t.php#ref1