Jumper

Dati: il muro per le nostre immagini?

La notizia l’abbiamo pubblicata in settimana, ma pensiamo che valga la pena approfondirla insieme. Parliamo di Alamy, una delle agenzie stock on line più importanti al mondo, nata nel 1999 e che oggi propone milioni di immagini, provenienti da oltre 15 mila fotografi e da 480 agenzie, che ha recentemente pubblicato sul suo blog informativo una serie di informazioni su quelle che sono le fotocamere “accettate“, ma specialmente quelle che invece renderebbero “Inaccettabili” le fotografie inviate al database. In pratica, il senso è che se il sistema rileverà che una determinata fotografia sarà stata scattata con un apparecchio che rientra nella “lista nera” (o che non fa parte della “lista bianca”) verrà automaticamente scartata.



All’interno di questa “lista nera” ci sono quasi tutte le compatte (Canon G9 e G10 sono tra le poche escluse dalla bocciatura), ma ci sono anche delle reflex “famose”, che pur non nuovissime (alcune decisamente datate, ok!), sono ancora tra le mani di molti professionisti. Siamo andati a spulciare le informazioni e i consigli che sono pubblicati sul sito di Alamy, dove si consiglia di non usare apparecchi da meno di 6 milioni di pixel, e poi le solite buone parole, con qualche interessante sfumatura: ok, per avere un ottimo controllo di post produzione, scattate in RAW, ma le moderne DSLR producono comunque eccellenti Jpeg che sono visivamente indistinguibili rispetto al RAW e al TIFF, se invece usate fotocamere di minore qualità conviene scattare in RAW per preservare la qualità ad un livello “accettabile”.

Tutto questo ci preoccupa un pochino: da un lato viene dichiarato ufficialmente qualcosa che abbiamo già sospettato con amici e collaboratori riguardo il metodo di valutazione delle agenzie microstock: pur non detto, sembra che un filtro qualitativo sia settato, anche in questo caso, sulla “credibilità” della fotocamera usata: insomma, se usi una reflex professionale hai più possibilità di vedere le tue fotografie accettate, rispetto a quelle che potresti avere, con la stessa qualità fotografica, con un apparecchio amatoriale. E a poco sembra funzionare la soluzione dell’eliminazione dei dati EXIF (ci sono diversi software che lo fanno), perché in assenza delle informazioni, le nostre immagini finirebbero in un limbo privo di sbocco.

Non c’è molto da scandalizzarsi: all’epoca d’oro, se non si scattava con il Kodachrome non si poteva sperare di pubblicare sul National Geographic, e da sempre se non si ha una macchina che definisca inequivocabilmente la nostra professionalità si finisce con l’essere considerati dei dilettanti. L’abito (tecnologico) fa quindi il monaco? Sembra di si, secondo Alamy, che nella sua ottica molto rigida non considera alcuni fattori, che sono per esempio la concettualità della foto, l’espressività di una soluzione tecnica “povera” dal punto di vista formale, ma ricca da quello visuale. Non vogliamo arrivare a dire (ma lo diciamo) che una foto scattata con un cellulare potrebbe essere schifosa e meravigliosa allo stesso tempo, ma senza arrivare all’estremo, siamo convinti che ci siano oggi compatte in grado di produrre immagini che potrebbero trovare spazio e merito in tutte le riviste del mondo. Ovvio che le fotocamere professionali reflex (o addirittura di più) sono in grado di produrre un livello eccezionale, superiore in tutto rispetto ad una “macchinetta”, ma questa dichiarazione nero su bianco potrebbe assumere toni pericolosi. SI potrebbe arrivare al punto in cui i clienti (perché ormai le agenzie online sono tra i principali “clienti” o quantomeno “rivenditori” di fotografie e quindi possono influenzare il mercato e il nostro futuro) impongono uno specifico modello di fotocamera, oppure un numero minimo di pixel (non interpolati), o altre sofisticazioni (ottiche, sensibilità, profondità di campo…). La fotografia e la sua qualità, filtrata da questi schemi, rischia di essere trasformata in numeri e in schemi preconfezionati che porterebbero un danno irreversibile. E’ risaputo, per esempio, che fotografi bravissimi come per esempio Alex Majoli, usano delle compatte per realizzare servizi strepitosi per la Magnum, perché il vantaggio dell’uso di questi apparecchi, piccoli e compatti, è superiore alla qualità “assoluta” che si potrebbe avere con apparecchi più ingombranti. C’è il rischio che foto come quelle di Majoli non vengano nemmeno prese in considerazione da un sistema automatico, per la “colpa” di non essere scattate con l’apparecchio che il sistema definisce (nella sua stupidità, o nella sua schematizzazione) “inadeguate”?

La preoccupazione è maggiore di quello che possiamo spiegare usando il pretesto della lista nera di Alamy, che forse alla fine, calata nella nostra realtà professionale, potrebbe non essere così grave (alla fine, quasi tutti scattiamo con macchine riconosciute come “buone” persino dai più rigidi ed intolleranti), ma è solo il dettaglio più evidente di qualcosa che sta alla base delle nostre fotografie, e che rischia di stravolgere completamente e definitivamente il mercato: i dati contenuti nelle immagini: da quelli EXIF di cui abbiamo parlato (che indicano quale fotocamera abbiamo usato, per esempio) ma anche e specialmente le keywords, i sistemi di indicizzazione, il ranking e la popolarità che viene governata da Google. Si discute sempre del “valore” delle foto, del mercato potenzialmente devastante del microstock e della sua vendita “a pochi euro”, ma il pericolo non è questo (abbiamo detto mille volte che vendere tanto a poco spesso rende di più che poco a tanto), ma quello della capacità di essere ricercabile, di essere “adeguato” in funzione di parametri definiti da altri (cosa succederebbe se Google decidesse di rendere più visibili le immagini realizzate con una determinata categoria di fotocamere, proprio con lo stesso approccio di Alamy?).

C’è chi sta discutendo di questo, on line, proprio quando noi stiamo cercando risposte agli interrogativi di questo Sunday Jumper: crediamo non sia un caso, alla fine le sensazioni sono figlie di una serie di indizi che chi è attento e sensibile insegue e si trova di fronte. Una proposta, coraggiosa, sarebbe quella di creare una coalizione tra le agenzie stock per creare delle logiche di ricercabilità basate sulla pertinenza e non sulla popolarità o su valutazioni che sono frutto di analisi di dati studiati non da esperti dell’immagine. Vogliamo dire che non può essere un algoritmo che decide il successo o l’oblio per una fotografia, ma dei parametri che non si possono scrivere in un dato. Ma come fare? Forse creando un motore di ricerca collettivo, che offre risultati con un concetto diverso, innovativo, non matematico. Si può partire dalla ricerca dei dati IPTC, completati con cura e precisione per ogni immagine, che offrono una schedatura dell’immagine che garantisce maggiore approfondimento e che pur essendo uno “standard” Google ignora nella sua ricerca. Ma per riuscire a combattere i limiti di Google (che tanti valori positivi ha, in generale), serve un approccio collettivo, quasi impossibile da realizzare, anche solo da ipotizzare.

Da qualche tempo penso seriamente (anche se pensare non serve a nulla) che non è possibile legare tutto ad un solo approccio di ricerca, ma che servirebbero porte di ingresso alle informazioni differenti (in questo caso visuali). E forse, addirittura, aree di informazioni che sono accessibili solo attraverso queste porte, e non altre. Ma in questo, per ora, c’è riuscito solo Facebook, che ha chiuso le porte alle sue informazioni, che sono raggiungibili solo attraverso la sua, di porta.