Uno dei grandi problemi nella ricercabilità on line sta nel fatto che le immagini non sono “riconoscibili” dai motori di ricerca. Google e i suoi concorrenti non sono ancora riusciti – in modo adeguato, e specialmente con rapidità – a “guardare” le immagini e a interpretarle. Se si cerca la fotografia di un elefante, Google non riesce ad identificarlo se non analizzando i contenuti che sono salvati nei metadati (keywords, Alt-tag, nome del file) o nel contenuto che sta “attorno” all’immagine (titolo della pagina, titolo del post, testo).

Per questo motivo, i fotografi devono imparare a gestire i propri contenuti, al fine di una migliore ricercabilità del proprio lavoro e per la propria promozione: il rischio è che mille fotografie di elefanti possono farci i maggiori esperti di fotografia di elefanti, ma se non riusciamo a “comunicarlo” a Google, questo nostro record non verrebbe mai “fuori”.

Abbiamo spesso parlato di come indicizzare le immagini, come inserire i metadati nelle immagini che pubblichiamo, fatto corsi e stimolato tutti a lavorare sull’indicizzazione per un tempo superiore a quello che, invece, tendono a dedicare. Per fare un esempio, chi fa indicizzazione ad alto livello tende a consigliare una “produttività” pari a 8 o al massimo 12 immagini all’ora: difficile da crederci, ma è così… non è obbligatorio, ma se non lo facciamo, le nostre immagini rischiano di non essere mai viste in una fase di ricerca. In ogni caso, il lavoro di ottimizzazione delle immagini sul web deve prevedere queste particolari attenzioni (lo ripetiamo, perché ne abbiamo parlato altre volte, ma quello che si nota è che… pochi lo fanno):

Alt Tag
(lo trovate nell’area di WordPress dove inserite le immagini, e fate in modo di che questo contenuto sia ricco, semplice, immediato).

Nome del file
(smettetela di lasciare il nome del file che viene scritto dalla fotocamera… non significa nulla in fase di ricerca)

Descrizione
(simile all’alt tag ma più approfondito, serve a descrivere l’immagine, come se la stessimo raccontando a qualcuno che non la sta vedendo. Già, perché, come detto, Google è cieca per quello che riguarda le immagini).

Ci fermiamo qua, perché questo argomento della descrizione è il focus di questo post. Siamo in grado di “descrivere” un’immagine? Le fotografie dovrebbero contenere, ciascuna, 1000 parole, eppure quando dobbiamo descriverle non riusciamo a tirarne fuori che una decina. Se va bene… Oggi, Google (ancora lui) ci viene incontro proponendoci/presentandoci una nuova incredibile tecnologia che porta quella tecnologia che si chiama “Image recognition” e che ci permette per esempio sulle fotocamere di individuare un volto e quindi di ottimizzare la ripresa in funzione di questo soggetto, ad uno stato solo ipotizzato e sognato. In pratica, Google sta studiando – è ancora agli inizi, ci vorrà del tempo per trasformarla in una raffinata realtà – una tecnologia, degli algoritmi, un processamento di dati che consente di “guardare” le immagini, e di generare una descrizione in “un’altra lingua”: quella delle parole. In pratica, si usa l’approccio della “traduzione”: dall’italiano all’inglese, dal russo al giapponese. Dalla fotografia alle parole.

Google_traduce_parole_fotografia

Questa è una rivoluzione incredibile, ma c’è un “ma”… i computer non imparano autonomamente il “sapere”, serve qualcuno che glielo insegni. L’altro giorno raccontavamo ad una persona amica che in un laboratorio di ricerca sui Media del Mit (un posto dove avrei voluto trasferirmi a vita…) hanno tentato di riprodurre il suono di un violino di Stradivari, e il problema che hanno avuto non era nella capacità di riproduzione del suono, ma nell’input da dare al computer stesso: per riuscirci, hanno capito che solo un “orecchio” esperto avrebbe potuto trasferire questo sapere, un orecchio capace di distinguere e anche di “sintetizzare” ogni singolo suono.

Google (ri)conosce la fotografia per tradurla in parole? La “parola” ai fotografi..

I test finora fatti da Google sono interessanti per riuscire a descrivere una pizza, a distinguere un colore dall’altro, un gatto da un cane, e anche a descrivere la foto di “un cane con un cappello”, che è ancora più complesso perché si tratta di due elementi distinti da unire. Ma si tratta di un minuscolo passo in avanti nella creazione di un vero traduttore/interprete immagine/testo. La “moto” rossa, in realtà è uno scooter rosa, 2 cani sono in realtà 3 cani, eccetera. Figuriamoci il riuscire a distinguere un sorriso da una piccola smorfia, un’emozione di gioia da una di paura…

Abbiamo un grande percorso da fare: la tecnologia cresce e si evolve, ed è meravigliosa. Ma così come ancora il computer deve fare fatica per vincere una partita di scacchi contro un campione del mondo (ci è riuscito, ma ha faticato tanto e la storia non è ancora finita), c’è un immenso lavoro per fare in modo che un computer possa “capire” e “tradurre in dati” una fotografia. Ma questo tempo non deve lasciarci a pensare di essere superiori. Chi si appresta a commentare in modo semplice questa “forza” dell’arte, dell’immagine, della mente umana, dovrebbe dedicare molto tempo a capire se – davvero – quello che si produce in fotografia, se quello che facciamo quando scattiamo un’immagine, contiene poi così tanto valore, così tante parole che noi riusciamo a decodificare, analizzare e trasferire. E’ un bell’esercizio, che possiamo fare mentre produciamo foto, mentre scegliamo e trattiamo i nostri scatti, e anche quando guardiamo quelli realizzati da altri: i maestri e tutti. Per ogni immagine che guardiamo, dovremmo iniziare a seguire come istinto un processo di descrizione oggettiva di quello che contiene quell’immagine.

Le immagini sono contenuto, non solo estetica. Il contenuto è vittorioso sui nuovi media, che non propagano immagini in virtù di quello che “mostrano”, ma di quello che “raccontano”, che “descrivono”, e di conseguenza delle parole che possono descriverla. Google sviluppa la tecnologia, noi sviluppiamo il contenuto.

2 responses

Comments are closed.