gergio ha scritto: ↑08/09/2025, 9:45
TriX ha fatto meglio il datasheet e comunicato più dati! Gil altri mettono 3 punti e via... ma per 3 punti hai voglia di farci passare curve e abbiamo ogni volta un coefficiente di correlazione pari a R=1... tanto che ci vuole e trovare un polinomio che passa di lì...
appunto... per questo come
concetto immaginavo di perfezionare la curva di regressione con l'interpolazione matematica di
moltissimi punti plottati sul piano cartesiano rappresentanti singole osservazioni.
In astronomia lo facciamo ad esempio per definire la curva di luminosità delle stelle variabili, ottenuta non da una singola serie di misure effettuate con la ricerca indefessa di una smodata precisione da un osservatorio "molto bravo e con ottimi strumenti" (che può essere inficiata occasionalmente da mille variabili mal controllabili), ma col contributo delle misure provenienti da quanti più soggetti possibile, ovviamente formati. Questa curva sotto, ad esempio, è ottenuta col contributo di molti amatori con vari telescopi, che afferiscono a due associazioni che operano nello stesso emisfero in luoghi molto lontani fra loro; e nello specifico dimostra che la stella studiata è una c.d. "variabile a eclisse", ossia con due componenti (stelle) di luminosità assai diversa ma diametro poco dissimile fra loro.
Ossia
la precisione è ottenuta ex post, e nasce dall'adeguata consistenza del campione statistico. Si ritiene cioè come filosofia che concentrarsi sulle tolleranze del calibro con cui misuri la sferetta d'acciaio, e cercare sempre solo di disporre di un calibro più bello e di migliori monocoli per guardare il nonio rende
meno che non ricevere le misure di tanti soggetti diversi ognuno col calibro suo, che misurino quella stessa sferetta (ovviamente non posandola su un metro da sarto, però...).
gergio ha scritto: ↑08/09/2025, 9:45
Riguardo alla proposta di @Valerio Ricciardi di integrare tanti cluster statistici per ottenere una curva via via più raffinata credo che si possa fare purché ogni nuovo record aggiunto sia prodotto nelle medesime condizioni di contrasto di scena, tipo sviluppo (agente temperatura, agitazione, etc.), il che lo rende praticamente inapplicabile, perché per avere un campione statistico sufficientemente valido occorrono decine e decine di dati tutti dello stesso tipo (e ogni pellicola va risposta ai diversi tempi di esposizione).
Comprendo perfettamente, anche perché non è che la comunità sia così immensa come negli anni '80... Si potrebbe pensare di proporre intanto a tutti di inviarti i dati ricavati "dimostratisi buoni" per le pellicole, ce ne sono anche BN come almeno la XP2 non so se altre - che vanno in C41 ed E6 che "si può assumere" siano standard... e cominciare a vedere se il gioco funziona.
Non solo questo... rammento bene lo slittamento colore della Velvia, che con grande serietà Fuji suggeriva come correggere. Chapeaux.
Al tempo ebbi la sensazione
netta che una condizione di selezione delle frequenze, come quando davanti a un'ottica con pellicola BN utilizzi un filtro giallo denso piuttosto che un rosso 25A piuttosto che un verde, fosse associata in bassissime luci a un difetto di reciprocità
non identico partendo da
valore misurato con esposimetro + fattore filtro. Ragionando su scale lineari... curve diverse. Ma sarebbe stato un lavoro veramente imponente provare a modellizzarlo, e non avevo motivazioni pratiche sufficientemente potenti per affrontarlo in modo sistematico.
Del resto, in astratto ci sta: già il grafico della sensibilità di una pellicola in funzione della frequenza è articolato, mica sembra un'onda quadra...