
Firefly, il motore grafico generativo di Adobe, festeggia il suo secondo compleanno. In soli due anni, Firefly ha visto tre importanti release e oggi integrato con tecnologie avanzate e un’interfaccia user-friendly, offre diverse funzionalità innovative, tra cui generazione di immagini, riempimento generativo e creazione di vettori. Una rapida evoluzione alimentata dal feedback degli utenti che pone Adobe in una posizione di avanguardia nella tecnologia AI generativa.
Firefly si sta avviando verso il suo secondo compleanno e, fin dal suo primo annuncio agli Adobe MAX di settembre 2022, si è fatto notare per una serie di caratteristiche che lo hanno reso più fruibile e immediato rispetto a diversi “concorrenti”.
Già visti così, due anni potrebbero sembrare pochi, ma osservandoli sotto un’altra prospettiva siamo di fronte alla terza release (di aprile 2024) di un motore grafico generativo estremamente complesso, entrato in beta pubblica solo a marzo del 2023.
Praticamente un apparente anno di vita effettiva e già 3 “major release”. È un buon biglietto da visita per un “software”?
Se guardiamo allo storia degli ultimi 35 anni la semplice lettura di questi dati potrebbe essere fuorviante, pensiamo ad esempio ai grandi applicativi (Photoshop o Illustrator, così restiamo in tema) o ai sistemi operativi: tralasciando le fisiologiche evoluzioni legate alle prestazioni dell’hardware, quindi una major release ogni 2 o 3 anni (più complesso e pesante è il software e più tempo può intercorrere tra un rilascio e il successivo), gli aggiornamenti molto ravvicinati erano spesso indice di problemi urgenti da risolvere, come bug bloccanti o fortemente critici.
È così anche adesso?
No. Il contesto corretto in cui considerare queste frequenti evoluzioni è radicalmente diverso e, anzi, è un indice molto significativo della portata di questa velocissima rivoluzione digitale in cui ci troviamo ad essere attori o comparse, volenti o nolenti, consapevoli o meno.
I cicli di sviluppo nella tradizione e nel presente
Dalla mia esperienza informatica passata posso recuperare uno spunto interessante, ripescando quel detto del mio trascorso scolastico che definiva come prodotti con il miglior rapporto tra innovazione e affidabilità quelli di terza generazione.
Non mi sbilancio a definirla una regola, sia chiaro, se tralasciamo l’insegnante (RIP) che a suo tempo l’aveva detta non ho più incontrato testi che la riportassero; statisticamente sui grandi numeri trova diversi riscontri ma, come tante questioni, può essere messa in discussione da una molteplicità di eccezioni.
Sintetizzando molto: per svariate ragioni, il lancio di un prodotto (o il primo rilascio di un servizio) è generalmente poco più di un MVP, un Minimum Viable Product, ossia un prodotto sufficientemente strutturato da poter essere considerato fruibile e appetibile dal target a cui è rivolto (e quindi commercializzatile), ma con margini di miglioramento o revisione anche molto ampi, che vengono eventualmente concretizzati in base alla risposta dell’utenza.
La prima versione di qualunque cosa venga mostrata al pubblico però è già passata attraverso una serie di versioni preliminari, che a loro volta sono state già sottoposte a uno o più gruppi di test, secondo una scaletta di sviluppo che tipicamente viene definita con le lettere greche Alfa e Beta, per poi diventare Release Candidate (RC, o Gamma o Delta).
Prendendo l’esempio di Photoshop, il gruppo dei Beta Tester aveva a disposizione l’embrione della versione successiva già qualche settimana dopo il lancio di quella ufficiale, per questo motivo a me era sempre sembrato che si trattasse più di un’attività da Alfa Tester che da Beta Tester.
Cambiai idea quando conobbi personalmente alcuni Alfa Tester, ossia quelli che proponevano e/o sperimentavano funzioni pionieristiche in anticipo anche di diversi anni rispetto al possibile rilascio al pubblico, e questo fa molto riflettere su quanto il nostro presente “innovativo” sia in realtà il passato (in certi casi anche remoto) per i veri innovat(t)ori. A proposito: sapevate che certe funzioni che negli anni ritenevo super fighissime non sono mai uscite (o magari non così come erano nate)? No eh?! No. Non lo sapevate.
Ma certi passati non necessariamente trovano futuro, e finiscono per non diventare il presente di nessuno, quindi nessuno viene a saperlo e si sta tutti benone.
Quando è nato Firefly?
Come scritto in apertura, Firefly è stato ufficialmente “battezzato” a settembre del 2022, ma nascita e battesimo, si sa, non sono la stessa cosa.
Le prime idee di progetto legate più propriamente all’AI in casa Adobe hanno almeno una ventina d’anni (la nascita della disciplina stessa dell’AI risale ai primi anni ’50), e le necessità di accelerare lo sviluppo di un prodotto con le caratteristiche dell’odierno Firefly avevano spinto Adobe ad acquisire Fotolia nel 2014, integrandola in Adobestock, così da avere un’enorme quantità di dati royalty-free da cui attingere per ottimizzare gli algoritmi di arte generativa.
Avete presente il “miracoloso” Riempimento in base al contenuto? Ecco, questa microscopica parte di rudimentale AI uscì nel 2010.
E i primi filtri neurali (bel nome, loro un po’ meno)? Siamo al 2020, ma il livello dell’AI coinvolta è diversi ordini di grandezza superiore.
Se li confrontiamo con le prime funzionalità generative dell’ultimo anno e mezzo ormai sembrano dell’anteguerra.
La velocità con cui recentemente stanno evolvendo algoritmi e risultati è aumentata esponenzialmente, complice anche il confronto continuo con più prodotti sviluppati da diversi attori, che vedono partecipare anche i grandi e grandissimi player come Apple, Microsoft, Google ecc… con investimenti che definire “imponenti” sarebbe poco.
La rivoluzione a cui stiamo assistendo fatica a trovare eguali nella storia dell’uomo, soprattutto per la rapidità con cui si sta evolvendo e per la vastità dei settori che va a coinvolgere, per questo il rischio di diventare altrettanto dispersiva è dietro l’angolo.
Bello volare…
…ma torniamo coi piedi per terra. Quando si sperimenta è legittimo spaziare il più possibile, si arriva però a un punto in cui bisogna
“quagliare”, specialmente quando bisogna rientrare degli investimenti fatti.
Tradotto nel contesto dell’arte generativa significa rendere fruibile lo strumento nel modo più facile possibile (facendolo pagare), così da aumentare rapidamente la platea degli utilizzatori secondo una curva di apprendimento molto bassa, mantenendo i risultati appetibili e accattivante.
Qui le scelte possono condizionare successo e posizionamento del prodotto, in prima battuta perché il fulcro di tutta l’AI generativa è il cosiddetto “prompt” (la riga di comando dove inserire istruzioni testuali), in seconda battuta perché la semplificazione sottintende limitazioni nel controllo dando priorità ai parametri automatici, con il rischio che l’aleatorietà rispetto al desiderata prenda il sopravvento.
Dal lato utente il professionista spinto (una minoranza) preferisce sperimentare e avere il controllo sulla totalità dei parametri, ma quasi tutti gli altri preferiscono (o necessitano di) bilanciare alta velocità con buona qualità.
Basandosi su questi presupposti Adobe ha scelto una proposizione molto visiva, divisa per tipologie operative, che al momento sono:
- Audio e video generativi (in arrivo);
- Espansione generativa (come quella di Photoshop, ma con l’anteprima di un motore grafico potenzialmente più evoluto);
- Da testo a immagine (la più potente e interessante di tutte, oltre che la più classica tra le logiche generative);
- Riempimento generativo (vale quanto detto qui sopra per l’espansione generativa);
- Genera un modello (per creare rapidamente diversi template grafici da utilizzare con Adobe Express);
- Genera un vettore (come Da testo a immagine, ma in vettoriale e da usare necessariamente con Illustrator);
- Ricolorazione generativa (anche qui da usare con Illustrator, da considerare come un Ricolora Grafica evoluta);
- Effetti di testo (come Da testo a immagine, ma dedicato solo ai trattamenti sulle scritte).

In tutti i casi in elenco si tratta di modalità ibride tra il prompt, comunque presente, e una serie di “preset” che raccolgono gruppi di parametri su cui l’utente non ha praticamente accesso diretto. Una soluzione decisamente più snella e pratica, che ritengo non faccia rimpiangere modelli generativi diversi (tipo Midjourney o Stable Diffusion),dove si può fare sicuramente molto di più, ma in tempi più lunghi e al costo di una curva di apprendimento molto più verticale.
Dal mio punto di vista è una filosofia operativa che nel complesso funziona, soprattutto per il target tipico degli utenti Adobe che è composto da operatori di comunicazione visiva in senso lato. Questo perché le combinazioni di risultati ottenibili con queste “semplificazioni” sono comunque innumerevoli, e non escludono l’intervento manuale in un secondo momento (anzi, a mio avviso quello non dovrebbe mai mancare, anche solo si trattasse di un intervento di sharpening e/o di color correction o color grading).
Comunque sia, ora che risulta ben delineata l’offerta, nei prossimi numeri affronteremo le parti più interessanti via via che si evolvono, a partire dal “Da testo a immagine” che è la funzionalità ora oggettivamente più matura.
I modelli di AI generativa per le immagini raster
Al momento in cui queste righe vengono i modelli attivi sono tre:
- Firefly 1, attualmente attiva all’interno di Photoshop (25.9.1) quando si invocano funzioni generative come il riempimento. È limitata a generazioni di max 1 Megapixel;
- Firefly 2 e 3 sono accessibili solo sulla versione Web, dove la 3 è formalmente ancora in versione beta (ovvero beta pubblica, per raccogliere riscontri dagli utilizzi degli utenti). La versione 3 si trova anche in Photoshop Beta (appunto), con risultati decisamente superiori al FF1 e in certi casi preferibili alla 2.
Man mano che cresce il numero degli utilizzatori migliorano anche i modelli generativi, con una rapidità impressionante se consideriamo i risultati oggi ottenibili, e se all’inizio ci si doveva “accontentare” di sole immagini statiche, negli ultimi mesi sono sempre di più gli esempi di video installazioni spettacolari e filmati generati interamente in AI.

L’output di Photoshop (3), basato su Firefly 1 è anni luce indietro rispetto a quello generato da FF2 su web (4), e la stessa interfaccia web offre più libertà di intervento rispetto al prompt interno a Photoshop.
A distanza di un anno una funzione inizialmente miracolosa risulta già superata. Da sé stessa
Il logo di Italia grafica (1) è stato portato in Illustrator per generare un’estrusione (2) con i recenti aggiornamenti nelle funzioni 3D, dopodiché è stato aperto in Photoshop e importato in Firefly su web per fare una comparativa. Il prompt è quanto più possibile simile nei due ambienti ed è il seguente: Logo trasparente in vetro, riempito con fili al neon incandescenti. Stile iper realistico e fotografico.
L’output di Photoshop (3), basato su Firefly 1 è anni luce indietro rispetto a quello generato da FF2 su web (4), e la stessa interfaccia web offre più libertà di intervento rispetto al prompt interno a Photoshop.
A distanza di un anno una funzione inizialmente miracolosa risulta già superata. Da sé stessa