Home Blog Pagina 71

Calendario Epson 2023, protagonista la gentilezza

Si rinnova il consueto appuntamento del Calendario Epson giunto quest’anno alla sua 23esima edizione nella nuova Collezione dedicata all’Illustrazione e curata da Gianluca Folì, illustratore e art director della collana. Protagonista di quest’anno è il tema della gentilezza, raccontata da piccoli gesti che emergono nelle tradizioni e culture di tutto il mondo con la poesia caratteristica della cifra stilistica dell’artista italo-thailandese Elisa Macellari.

Le 12 tavole del Calendario 2023 “Forms of kindness” esprimono con delicatezza come la gentilezza prenda forma in luoghi e tempi diversi, raccontando l’attenzione per gli altri che non conosce confini geografici e culturali. Un’attenzione che genera compassione ed empatia e che, grazie alla vitalità dei colori e alla potenza del tratto, prende vita nei riti che celebrano momenti di transizione nelle tradizioni culturali presenti in tutto il mondo. È un modo per celebrare un momento di passaggio vissuto a stretto contatto con l’ambiente, con la storia, con l’altro e con noi stessi. Le scene ricche di visi, persone, abiti tradizionali, raccontano il Capodanno, il Carnevale di Venezia, il solstizio, la luna piena, la fioritura, la rigenerazione e in ognuna di esse si riconosce il sapiente uso cromatico e il segno narrativo che descrivono i grandi eventi che si rincorrono nel corso dell’anno, nel mondo: immagini caratterizzate da un’alternanza di colori pieni ora vivaci ora delicati che richiamano un mondo ludico e fanciullesco, con un’aura di magia.

Elisa Macellari, autrice del calendario Epson 2023

“In questo lavoro – afferma Elisa Macellari – ho cercato di far emergere una qualità umana di cui sento particolare bisogno in questo momento storico. E ho cercato di farlo con vitalità e colore per coinvolgere l’osservatore, per farlo partecipare con empatia alle scene illustrate”.

Abbiamo bisogno della gentilezza

“Con le sue illustrazioni – spiega Massimo Pizzocri, amministratore delegato di Epson Italia – Elisa Macellari apre una finestra sul mondo: dalle tavole emerge un’aria di festa grazie a un’armonia di forme e colori. Ma soprattutto quello che comunica con straordinaria potenza è soprattutto il tema della gentilezza che seppure espresso in forme minime e sommesse ci arriva forte e chiaro in un momento in cui proprio questo messaggio è importante per la quotidianità di tutti noi. Epson, dal canto suo, ha supportato la creatività di Elisa grazie alla tecnologia di stampa che ha saputo riprodurre fedelmente la bellezza di queste creazioni”.

“Elisa Macellari – commenta Gianluca Folì, art director della Collana dei Calendari Epson dedicata all’illustrazione – interpreta la terza edizione del Calendario Epson con il suo linguaggio ricercato, esotico, contemporaneo. È un viaggio che passa attraverso grandi eventi mondani sparsi per il mondo, ma che al contempo sono uniti da un unico elemento. Questo elemento che sa scorrere nel tempo, Elisa ci invita a cercarlo, grazie al sapiente uso cromatico e al ritmato segno narrativo, scoprendolo finalmente nel dettaglio che sta dietro ogni persona, ogni evento, ogni elemento della composizione: la gentilezza”.

Dal digitale alla carta fine art per un risultato che esalta il lavoro di Elisa Macellari.

Opificio Arte Stampata ha utilizzato due stampanti Epson SureColor SC-P7500 per trasformare in stampe originali su carta fine art le tavole disegnate in digitale da Elisa con Procreate e Photoshop. Sono stati necessari più di tre mesi di lavoro per stampare ben 10.400 fogli in formato A3+ nei quali l’ampia gamma colore ottenibile con gli inchiostri UltraChrome Pro12 ha permesso di mantenere la straordinaria vitalità cromatica dei disegni originali.

Nasce così un oggetto da collezione a tiratura limitata, un manufatto che ogni anno viene realizzato con cura e maestria: solo 800 copie numerate, dove ogni mese, così come ogni esemplare, è di fatto un originale.

Prima di Elisa Macellari, altri due importanti illustratori hanno avuto il privilegio di lavorare per il calendario Epson: Gianluca Folì, nel 2021, oggi curatore della Collana dei Calendari dedicati agli illustratori, e Marco Goran Romano che ha realizzato il Calendario 2022.

Contatto con alimenti, valutare il rischio

Il mercato richiede prodotti che siano sostenibili. È però essenziale ricordarsi che la sostenibilità non deve mai compromettere la sicurezza. Accanto a eco-design e studi di LCA, il settore ha un alleato nella prevenzione attraverso analisi di laboratorio, anche con approcci innovativi.

La sostenibilità del prodotto è tra gli obiettivi principali delle aziende. Esistono però esigenze normative da rispettare e aspetti pratici da tenere in considerazione, tra cui la sicurezza del consumatore finale, che deve essere garantita sempre; un aspetto da valutare anche in fase di analisi. Proprio della valutazione del rischio di materiali a base cellulosica e di indagini su sicurezza, composizione e conformità al loro utilizzo finale ha parlato al Congresso Aticelca 2022 Marinella Vitulli, owner&director di Food Contact Center.

Il concetto di sostenibilità

Per verificare e provare la sostenibilità ambientale di un prodotto esistono diversi schemi, a partire da quelli creati dalla Commissione europea sino alle linee guida approntate dal mondo industriale, le PCR (product category rules) ovvero quell’insieme di regole e requisiti per lo sviluppo di EPD, le dichiarazioni ambientali di prodotto. Per chi è deputato a effettuare analisi, uno strumento ideale è la valutazione del ciclo di vita o LCA (life cycle assessment), secondo le norme ISO 14040 e ISO 14044.

In ambito di economia circolare, tra le azioni della cosiddetta “Regola delle 5 erre” per giungere a un modello di economia a zero sprechi – ridurre, riutilizzare, riciclare, raccogliere e recuperare –, quella che dimostra di avere il maggiore impatto ambientale è il riciclo, ma il tema diventa particolarmente delicato quanto si entra nell’ambito di utilizzo di materiali riciclati per alcuni tipi di prodotto, soprattutto quando devono andare a contatto con gli alimenti.

«Se consideriamo un oggetto di cellulosa vergine o realizzato con un materiale riciclato, dobbiamo comunque considerare che la sicurezza è un must. Nel contatto con alimenti l’articolo 3 del Regolamento quadro – Reg. CE n. 1935/2004 – dispone che l’oggetto non deve costituire pericolo per la salute umana, comportare modifiche dell’alimento o anche semplicemente modifiche sensoriali». Questa è la regola generale che si applica a tutti i manufatti cartari, però occorre poi capire come dimostrare la conformità in base a regole specifiche. Ed è qui che la situazione si complica.

Da regole generiche a regole specifiche

Il problema principale è dato dal fatto che la carta non abbia un regolamento armonizzato europeo. Diventa quindi una via obbligata il dovere fare riferimento a «leggi nazionali, documenti prodotti dalle associazioni, piuttosto che a risoluzioni del Consiglio d’Europa». A tale proposito Food Contact Center – che è un laboratorio accreditato per effettuare le analisi Moca (materiali a contatto con alimenti) – ha sviluppato un proprio strumento denominato Matrix, «una matrice di regolamenti che permette di verificare, a livello europeo, tutti i Paesi che hanno una legge specifica per un dato materiale, in questo caso per carta e cartone. Lo strumento» spiega Vitulli «dimostra che la situazione è decisamente complicata, anche se, quando si parla di “alimentarietà” di un materiale, questa alla fine viene rappresentata dalla conformità alle leggi italiana, francese e tedesca».

Per alcuni aspetti la normativa sul food contact in Italia è molto più severa che in altri Paesi, «per quanto riguarda i materiali che contengono riciclato, il contatto può essere fatto solo con alimenti secchi» prosegue Vitulli. Questo implica che per il contatto con alimenti non secchi, per esempio la pizza, sia necessario avere solo materiali in pura cellulosa.

Diversa invece è la situazione in Francia «dove vi è un nutrito elenco di sostanze con limiti molto sfidanti, soprattutto per gli ftalati e i reticolanti. Vi è la possibilità di eseguire analisi anche tramite solventi e simulanti, però il confronto con la legge deve essere fatto relativamente alla migrazione all’interno dell’alimento».

La Germania, infine, si rifà alle BfR ovvero raccomandazioni – che nei fatti hanno valore di legge – nelle quali, per quanto riguarda i materiali riciclati, si riporta una tabella con i parametri delle varie sostanze. Anche in questo caso si può dimostrare la conformità con prove di migrazione all’interno dell’alimento.

Le analisi di laboratorio

Quando si procede ai controlli, il primo step consiste nelle prove estrattive sui campioni da analizzare. Una volta individuati i valori dei contaminanti, occorre valutare l’esposizione del consumatore. Solo dopo questi calcoli si può arrivare a dimostrare la conformità o meno del materiale. «Cerchiamo sempre di dimostrare la reale esposizione al consumatore» spiega Vitulli, «perché la sola presenza dei contaminanti di per sé non è sufficiente a dimostrarne la pericolosità per la salute umana, bisogna verificare se veramente esista il rischio e se ci sia una reale esposizione».

Il team di Food Contact Center ha eseguito di recente uno studio in collaborazione con il gruppo del CNR di Pisa e di Siena proprio in questo ambito. «La ricerca è stata effettuata su parametri analizzati in parallelo: il nostro gruppo ha eseguito le analisi su carta e cartone, mentre il gruppo del CNR su campioni biologici».

Innanzitutto è stato condiviso l’approccio analitico che sarebbe stato poi adottato.

«Per quanto riguarda i contaminanti organici si è trattato di analizzare sostanze volatili, semi volatili e non volatili, con la tecnica GC/MS gascromatografia-spettrometria di massa, mentre per i contaminanti tipici di carta e cartone, volatili e non volatili, è stata utilizzata la tecnica liquido-cromatografica».

La difficoltà nell’uso di questa tecnica, soprattutto in ambito di screening, è l’assenza sul mercato di librerie. «Nel 2018» precisa Vitulli «con la collaborazione della società Sciex e sotto la supervisione del CNR di Pisa, abbiamo portato avanti la costruzione di una libreria – nostro progetto già da alcuni anni – poi pubblicata e distribuita nel 2020».

La libreria si basa sulla tecnica LC Q TOF ed è costantemente implementata. Al momento raccoglie 12mila sostanze contaminanti di materiali in carte e cartoni – sia a contatto con alimenti sia non –, oltre ad altre 1.700 sostanze caratterizzate anche da tempo di lievitazione e massa/massa.

I risultati ottenuti

Le analisi effettuate su campioni di carta e cartone – sia di carte vergini sia di carte riciclate – si sono concentrate sulla presenza di ftalati analizzati in gasmassa e di bisfenoli analizzati in liquidomassa. I risultati ottenuti, spiega Vitulli, hanno mostrato come «circa il 10% di campioni di pura cellulosa avesse questi contaminanti come contenuto, mentre per i campioni in carta riciclata i valori fossero molto più alti: più del 90% degli stessi ha registrato la presenza di queste sostanze».

«Con la tecnica di screening abbiamo potuto anche investigare la presenza di altri contaminanti, che sono stati riconosciuti grazie al nostro database».

Le prove eseguite su campioni biologici da parte del CNR hanno evidenziato, invece, «soprattutto la presenza di metaboliti e biftalati all’interno dei campioni di urina».

Questo studio ha dimostrato che i contaminanti effettivamente sono ingeriti dall’uomo, con un indubbio impatto biologico; tuttavia occorre considerare un aspetto importante, «stiamo parlando di contaminanti ubiquitari» precisa la direttrice «e ciò significa che l’esposizione degli esseri umani nasce dalla combinazioni di più fattori e non è detto che questa assunzione derivi dal manufatto cartario».

Il passaggio successivo dello studio, quindi, è stato di cercare di capire se effettivamente le sostanze riscontrare nelle prove di estrazione corrispondessero a una reale migrazione.

Le prove sono state fatte sui bisfenoli con solventi estrattivi e i risultati poi sono stati pubblicati in una tesi svolta in collaborazione con l’Università di Firenze. Ma non è tutto, la prova di migrazione di bisfenoli all’interno della pizza – effettuata attraverso un’analisi di migrazione all’interno dell’alimento accreditata da Food Contact Center con Accredia – ha dimostrato come la migrazione non ci sia. In pratica gli stessi campioni risultati non conformi con i test con solventi estrattivi sono risultati invece conformi al test di migrazione nell’alimento. Un dato raggiunto anche quando il campione è stato sottoposto a condizioni fortemente peggiorative – per esempio il provino in cartone è stato scaldato in forno per 24 ore.

«Con questo approccio i risultati mostrano che la migrazione non c’è, anche perché i bisfenoli sono sostanze pesanti e quindi è veramente difficile che riescano a migrare. Diversa la situazione per gli ftalati che, invece, un po’ di migrazione l’hanno fatta registrare, però sempre nel rispetto dei limiti di legge».

Un altro parametro che gli analisti hanno considerato e che è previsto dal BfR tedesco riguarda l’analisi dell’alluminio. «Anche in questo caso abbiamo eseguito la migrazione nell’alimento – l’anno scorso abbiamo accreditato Accredia anche le migrazioni di alluminio e di ferro all’interno dell’alimento. Anche in questo caso, per gli stessi campioni che davano la non conformità siamo riusciti a dimostrare la conformità».

Prevenire è meglio che curare

La prova di conformità tramite l’approccio di analisi all’interno dell’alimento non è però sempre consentita dalla legge. Per questo motivo Food Contact Center, sempre in collaborazione con il CNR, ha validato un metodo Fast di screening concentrato sui principali contaminanti e soprattutto sulla presenza di sbiancanti, sostanze normate dalla UNI EN 648:2019. «Considerando quindi che per gli sbiancanti si deve necessariamente applicare questa norma, può essere utile in fase preventiva sapere se ci sia già, all’interno del materiale che poi andrà come componente di riciclo, una certa quantità di imbiancanti, per di più tenendo conto che successivamente la cartiera andrà ad aggiungerne altri. Per questo motivo» spiega Vitulli «abbiamo realizzato un metodo di screening e una specifica libreria di sostanze imbiancanti» che potranno essere molto utili ai produttori di carta.

«Dunque si può lavorare sulla prevenzione, ricordando sempre che, in ambito cartario, il ricorso al riciclo è molto vantaggioso, ma la sostenibilità non può compromettere la sicurezza e per dimostrare quest’ultima possono esserci approcci tradizionali e approcci innovativi che vadano a valutare le possibilità della legge».

Grande formato, come preparare le immagini

La risoluzione ottimale nella stampa grande formato è sempre un tema caldo, per certi versi forse di più di quanto non lo sia quello della risoluzione tout court. Vi diciamo noi come fare ad affrontarlo correttamente.

Non di rado sui diversi gruppi sui social ci si imbatte in una domanda periodica ricorrente del tipo: «Devo realizzare un grande formato di dimensioni XY (generalmente un 6×3, ma c’è di tutto), come devo preparare il file?». E generalmente qui piovono interventi con dati più o meno corretti, a volte decisamente fantasiosi, basati molto spesso sull’esperienza di chi risponde che, nonostante possa anche essere pluriennale, non genera necessariamente risposte correttamente strutturate.

Alcune risposte sono perfettamente coerenti, ma per chi ha posto la domanda sono solo una parte di quelle ricevute, difficile pertanto scremare indicazioni e dati anche molto contrastanti.

In questa sede affronterò quindi la questione con un approccio un po’ diverso da quanto già fatto in precedenza partendo da questi aspetti:

  • Quali dimensioni finali sono da considerare grande o grandissimo formato
  • Come determino la risoluzione ottimale dei contributi raster, immagini o trasparenze convertite che siano
  • Come mi comporto con gli elementi di natura vettoriale, testi compresi
  • Quali limiti presentano in questo contesto i classici applicativi e i formati di file
  • Ricampionare, serve davvero oppure no?
  • Come mi devo relazionare (e accordare) con il fornitore di stampa.

Le dimensioni del grande formato

La questione non ha una risposta univoca, per comodità si può considerare grande formato un supporto con dimensioni superiori all’A2 o al 50×70, anche se non c’è un vero e proprio valore soglia che faccia da spartiacque. Per chi opera abitualmente nell’editoria tradizionale anche un 35×50 può essere considerato più grande del solito, mentre per chi opera abitualmente nei formati molto più grandi queste dimensioni non vengono considerate interessanti.

Di certo l’evoluzione dei sistemi di stampa degli ultimi 30 anni ha reso via via più accessibili formati come A3+ e SRA3 anche alla fascia consumer, e i formati più grandi su plotter fino all’A0+ di qualità fotografica (indipendentemente dalla tecnologia) si possono ben trovare intorno ai 1500 € (a salire, e di parecchio anche).

La maggior diffusione di questi formati anche negli ambienti consumer e prosumer ha diffuso la problematica di come preparare correttamente i file di progetto, in parte per le diverse logiche di progettazione grafica vera e propria (che non tratteremo) e in parte per i megapixel necessari per avere risultati raster ottimali.

In sintesi: ho sempre letto che per l’alta qualità di stampa servono 300 ppi, li considero anche per un manifesto 100×140? La risposta è “generalmente no, ma dipende”, e la affrontiamo nel prossimo paragrafo.

La risoluzione nel grande formato

Se una risoluzione di 300 PPI è didatticamente e tradizionalmente indicata per risultati ottimali (non DPI, parliamo di Pixel, non di Dot, cioè punti stampa, abbiamo sviscerato la questione nel nostro speciale sulla Risoluzione), nel mondo reale le eccezioni si sprecano, con valori anche superiori o molto inferiori a seconda dei casi, con riferimenti esotici a 72, 96 o altri numeri magici.

Tralasciando il fatto che cliccando su “stampa” solitamente qualcosa prima o poi esce, concentriamoci su come ragionare per impostare i valori corretti massimizzando la qualità e ottimizzando tempi e dimensioni dei file.

Il primo discriminante nella determinazione della risoluzione di riferimento è la distanza di visione a cui deve essere visto lo stampato: se la distanza è intorno ai 20/30 cm allora si possono considerare valori di anche 400 PPI (per ora tralasciamo la possibilità di riprodurli adeguatamente in stampa, dove generalmente il limite di 300 o 360 PPI è un tetto oltre il quale i dati vengono scartati), mentre se tale distanza è di 10 metri o più allora un valore soglia di 10/15 PPI può essere ancora accettabile.

Questi numeri si possono e si devono ricavare a partire dal potere risolvente dell’occhio umano medio, a sua volta fisiologicamente determinato dai fotorecettori presenti nella fovea: noi possiamo risolvere un dettaglio minimo corrispondente, semplificando, ad un angolo di visione di 1’ di grado.

Cosa comporta questo? Che a distanze ravvicinate un arco sotteso ad 1’ di grado sarà molto piccolo, mentre a distanze elevate avrà ovviamente misure maggiori, facciamo qualche esempio.

A 1 metro di distanza un arco di questa ampiezza corrisponde a 0,29 mm circa (per approssimazione si può fare il calcolo della circonferenza di raggio 1 metro e divisione del risultato per 360 e per 60), quindi il dettaglio più piccolo che possiamo correttamente definire sarà di poco inferiore ad 1/3 di mm, e questa è definita come acutezza di risoluzione. Questo non significa che non possiamo percepire qualcosa di più piccolo, anzi, possiamo percepire l’esistenza di oggetti anche 10 volte più piccoli, semplicemente non li possiamo mettere a fuoco e identificare in modo netto, e questa è la cosiddetta acuità di visibilità.

C’è un terzo tipo di acuità visivo che però difficilmente viene chiamata in causa con le immagini raster, l’acutezza di allineamento, che diventa invece potenzialmente critica con gli elementi vettoriali, per questo ne parleremo meglio nel prossimo paragrafo.

Traducendo in risoluzione il ragionamento delle righe sopra si deduce che a 1 metro di distanza la risoluzione limite è di 2,54 cm/0,29 mm, che dà circa 87 PPI.

Quindi questo valore è obbligatorio per tutti gli elementi raster osservati da non meno di 1 metro? Naturalmente no, è un’indicazione di soglia, più propriamente un intorno, da considerare come riferimento sotto al quale la qualità dell’immagine risulta di scarsa qualità, tanto più percepibile quanto più se ne discosta.

La proporzione a partire da questo valore è lineare, vale a dire che:

     ⁃            a 2 metri la risoluzione soglia è 87/2 (circa 44 PPI)

     ⁃            a 10 metri è 87/10 (circa 9 PPI)

     ⁃            a 50 cm è 87/0,5 (circa 175 PPI)

     ⁃            a 29 cm è 87/0,29, cioè 300 PPI, valore mediamente ottimale per gli elementi raster su prodotti stampati da tenere in mano, a distanza generica di lettura.

A margine di quanto sopra le risoluzioni video dei cellulari o dei tablet raggiungono PPI molto superiori ai soliti 300, che possono arrivare anche oltre i 500 PPI, questo per 2 motivi: il primo è che vengono guardati a distanza anche inferiori ai 20 cm (per chi ci riesce, tipicamente i giovanissimi, che poi avranno rapidamente bisogno di occhiali da vista per tutta una serie di conseguenze), il secondo è che la sensazione generale di dettaglio ne trae comunque giovamento, anche se il pixel non è comunque più identificabile intorno ai 400 PPI.

Tornando alle nostre immagini per il grande formato: se quelle da rappresentare sono ricche di dettagli sottili (microdettagli) e/o tessiture geometriche facilmente riconoscibili con contrasti forti, allora è bene aumentare la risoluzione, anche del doppio o triplo, perché la nostra risoluzione di allineamento (o di nonio) permette di percepire disallineamenti (come l’aliasing) anche molto piccoli.

Viceversa, nelle immagini con volumi plastici di grandi dimensioni, privi o quasi di alte frequenze (microdettagli), ci si potrà anche accontentare di valori inferiori, senza compromettere significativamente la visualizzazione.

Detto questo avrebbe ancora senso ostinarsi a usare, supponiamo, un’immagine da 6×3 m a 300 PPI?

Se non è un problema gestire oltre 2,5 gigapixel di immagine allora si può procedere, con tutte le conseguenze di richiesta hardware e tempi di elaborazione che questa strada comporta. Viceversa, se si opera in contesti diversi dalla fantascienza allora si deve fare i conti con l’efficientamento dei tempi e dei costi di produzione, quindi conoscere il ragionamento opportuno per la scelta del miglior compromesso diventa fondamentale, oltre che necessario.

Ci sono contesti dove la risoluzione deve essere mantenuta a valori molto elevati nonostante le dimensioni fisiche dello stampato?

Certamente sì, alcuni legati al mondo delle riproduzioni d’arte (Haltadefinizione o Factum Arte, giusto per citarne un paio), e altri legati a esigenze specifiche come potrebbero essere le gigantografie di luxury brand (fashion, gioielli…) esposte in zone di passaggio con distanza di visione ben al di sotto del metro.

Altri esempi particolari possono essere le mappe dei parchi divertimenti, tendenzialmente ricche di dettagli e illustrazioni, che invitano l’osservatore ad avvicinarsi molto nonostante le dimensioni dello stampato possano anche superare i 2 metri.

L’elenco potrebbe continuare ma il principio portante dovrebbe essere già chiaro.

In questo esempio abbiamo stimato delle dimensioni plausibili (non importa che siano esatte per quanto segue) per rispondere al quesito pratico «che risoluzione deve avere l’immagine del cellulare?»

Tra l’osservatore e il soggetto rappresentato possiamo considerare un minimo di 5 m, il che suggerisce un valore soglia di 18 PPI. Ci sono dettagli da considerare? Si, non molti ma sono fondamentali. Il prodotto può “tollerare” rappresentazioni meno che ottime? Direi di no. Sulla base di queste considerazioni il valore soglia deve essere aumentato, personalmente andrei anche a 50 PPI per stare tranquillo, anche se è decisamente sovrabbondante. L’immagine utile avrebbe circa 1,3 gigapixel, ottenibile da uno scatto singolo di una mirrorless di fascia alta, o, molto più improbabilmente, da un render.

Gli elementi vettoriali

Dal punto di vista della risoluzione qui siamo piuttosto tranquilli, data la loro ben nota scalabilità le dimensioni finali non rappresentano un grosso ostacolo. Ci sono però un paio di considerazioni da fare, una riguarda il processo di conversione delle trasparenze e una il (vecchio) limite dei circa 5 m sui PDF. Il processo di conversione delle trasparenze subentra quando negli applicativi introduciamo variazioni di trasparenza sugli elementi, con l’aggiunta di ombre, bagliori, metodi di fusione ecc…

In questi casi, se si sceglie per l’esportazione la versione 1.3 di PDF, l’elemento vettoriale può passare per un processo ROOM (Render Once Output Many) di rasterizzazione preliminare in cui entra in gioco il valore di rasterizzazione nella conversione delle trasparenze, un valore basso qui rischia di compromettere il risultato di stampa.

Il limite dei 5 metri invece è frequente per i PDF conformi al primo standard ISO 32000, in cui la dimensione limite è 14.400 PDF units in ogni direzione.

Una PDF unit corrisponde a 1/72 di pollice (quindi a 1 punto tipografico, 0,35 mm), e tradotto significa 0,35 mm x 14.400= 5040 mm

Si può anche non rispettare lo standard di cui sopra, in quel caso le dimensioni possono essere maggiori, ragion per cui un modo per “aggirare” questo limite era (è) quello di esportare in EPS a dimensioni reali e poi distillare un PDF ad hoc.

Anche per i testi, notoriamente vettoriali, vale la pena spendere due parole: fino a poco più di un anno fa tutti gli applicativi Adobe potevano gestire font di corpo fino a massimo 1296 punti (circa 45 cm tra spalla inferiore e superiore), e anche in altri applicativi di Desktop Publishing mi risulta ci sia questo vincolo, superato solo da Illustrator 24.2 che lo ha decuplicato.

Per testi più grandi (raro, ma possibile) bisognava ingrandire il testo manualmente, oppure convertirlo preventivamente in tracciati e a quel punto gestirlo come un oggetto vettoriale qualsiasi.

Personalmente non ritengo particolarmente critico quest’ultimo aspetto, ma per onor di cronaca era giusto riportarlo.

I limiti degli applicativi e dei formati dei file

Per la preparazione di file con dimensioni fisiche molto grandi è bene considerare che anche gli applicativi e i formati di esportazione presentano dei limiti, alti certo, ma ci sono.

L’unico applicativo Adobe in grado di eccedere il vecchio limite di cui ho parlato nel paragrafo precedente è Illustrator, che dalla versione 24.2 del maggio 2021 ha decuplicato i limiti lineari della sua area di lavoro, passando da 227 pollici (576,58 cm) a 2270 pollici (oltre 57 m di lato), mentre Affinity Designer già da prima offriva un limite di 21,6 m. Indesign ha un limite per singola pagina pari a 216 pollici di lato (5,48 m) che in combinazione con la possibilità di affiancare fino a 10 pagine offrirebbe un massimo di 54,86 metri complessivi, può funzionare egregiamente ma personalmente non userei Indesign in questo modo.

Con Photoshop questi limiti ha più senso esprimerli in pixel anziché in cm, dato che la risoluzione permette di stabilire la densità di pixel per misura fisica e un’immagine di 100 pixel a 1 PPI sarebbe già oltre i 2 metri e mezzo senza per questo risultare usabile (a meno di non volere 1 mosaico).

Il suo primo limite è di 30.000 px su almeno una delle due misure, ed entro questo valore per esportarlo possiamo usare parecchi formati immagine, il suo secondo limite è di 300.000 px su almeno un lato, e in questo caso per esportarlo disponiamo solo dei formati PSB, PNG, TIFF e WEBP.

Sono valori decisamente elevati per un’immagine: 30.000 pixel a 300 PPI corrispondono a 2,54 m, e per 300.000, beh… sono 90 gigapixel e passiamo i 25 m, sempre a 300 PPI…

Per quanto possano sembrare tanti, e lo sono, considerate che l’immagine digitale più grande al momento risulta essere la riproduzione de “La ronda di notte” di Rembrandt, una composizione di 8.439 immagini da 100 Mpixel cad, per totali 717 gigapixel, Photoshop non la gestirebbe neanche pregando.

Infine resta l’interrogativo di come esportare file grafici così grandi: PDF è una buona scelta, a patto di usare la versione 1.6 o superiore, invece dall’1.5 o precedenti tutto quello che eccede i 227 pollici verrà scalato fisicamente di un fattore 10.

Questa proporzione nel ridimensionamento è un metodo manuale molto usato da chi si occupa di file grandi, e in generale funziona: per un 6×3 in formato immagine si può dimezzare la misura fisica e raddoppiare la risoluzione, sarà poi lo stampatore a “proiettare” il file raddoppiando le misure lineari.

Anche pannellizzare il file principale in file più piccoli può essere una soluzione, e i modi per farlo sono molteplici.

Se si vuole seguire questa strada bisogna ricordarsi di prestare attenzione alle disattivazione delle impostazioni di downsampling (per immagini superiori a xxx PPI) del file PDF: scalando di un fattore 10 le dimensioni e moltiplicando per 10 la risoluzione, che lascia di fatto tutti i dati digitali intatti, si potrebbe subire un ricampionamento automatico verso il basso perché il valore in ingresso risulterebbe elevato, ad esempio da 300 ppi a 3000 ppi con dimensioni fisiche ridotte a un decimo.

Un dettaglio della Ronda di notte, acquisito in modo tale da restituire sostanzialmente la stessa sensazione di dettaglio del dipinto originale. Tali dettagli sono visibili a distanza molto ravvicinata, mentre da distante il nostro occhio non è in grado di percepirli

Ricampionare, si o no?

Considerando tutto quello di cui si è parlato nelle righe sopra è logico farsi prendere dalla tentazione di ingrandire le eventuali immagini per avere più pixel a disposizione, ma a conti fatti, serve davvero?

Il ricampionamento è un processo di calcolo che genera informazioni fittizie a partire dalle informazioni di partenza, in sostanza genera dettagli che prima non c’erano sulla base dei dettagli originari. Gli algoritmi che operano questi calcoli sono molteplici, e negli ultimi tempi è esploso l’apporto dell’intelligenza artificiale che consente di ricostruire la realtà con elementi davvero realistici, anche se non reali. Dell’intervento dell’AI traggono giovamento soprattutto alcuni soggetti, ad esempio i volti, mentre altri che non vengono considerati importanti non trovano riscontri nelle banche dati mondiali da cui dovrebbero venire rigenerate. Il risultato finale potrebbe presentare aree positivamente ri-dettagliate in contrapposizione ad aree poco definite, restituendo nel complesso un risultato non omogeneo, e questo potrebbe avere un indesiderabile effetto boomerang.

In sintesi: se un ricampionamento è ben eseguito e controllato può essere una buona operazione a patto di non chiedere l’impossibile.

L’immagine sottostante è stata ricampionata verso il basso al 20% della sua dimensione originale, poi è stata nuovamente ricampionata verso l’alto del 500%, in 5 modi diversi. Questa comparativa semplificata replica la logica delle GAN (Generative Adversarial Network) dove due sistemi automatici (i.e. computer) comparano l’efficacia degli algoritmi di interpolazione rispetto agli originali, migliorandoli passo passo. Al di là dell’evidente qualità di alcuni algoritmi rispetto ad altri, visibile soprattutto nel dettaglio dell’occhio, è chiaro che nell’immagine più grande (che qui è comunque un ritaglio di un’immagine ben più grande) tali differenze sono molto meno evidenti. Questo è ciò che succede all’aumentare della distanza di visione

I rapporti con lo stampatore

L’obiettivo principale del progetto grafico tout court è quello di restituire al cliente un prodotto di qualità adeguata, possibilmente molto elevata, per questo, al di là della teoria ottimale bisogna evitare contrasti tra i vari professionisti coinvolti nel processo produttivo, e fare in modo che tutto funzioni.

Questo aspetto non è secondario, e confrontando le specifiche (a volte contrastanti) richieste da molti service di stampa, online e non, o le risposte nei vari gruppi social, sorgono inevitabilmente forti interrogativi su chi sia attendibile e chi no.

Purtroppo la teoria strutturata non sempre è conosciuta o condivisa da tutti, ma fortunatamente ci sono buoni margini di approssimazione che spesso consentono di ottenere un risultato accettabile “perdonando” gli errori sui numeri.

Il sistema percettivo umano è fortemente adattativo, ed essendo naturalmente portato a ricostruire le informazioni mancanti sulla base di continui campionamenti del campo visivo può essere “accontentato” bilanciando oculatamente vari artifici ottici, come le varie maschere di nitidezza o l’aggiunta di disturbo.

K 2022, successo per la partecipazione di Ulmex al fianco di Zecher

Grande interesse a K 2022 per il debutto in anteprima mondiale della nuova release di Evolux presentata da Ulmex in collaborazione con lo storico partner Zecher. Disponibile in tre modelli, diversificati per luce, potenza e velocità, tutti con certificazione Industry 4.0 ready, la nuova Evolux è contraddistinta da design ergonomico, inedita funzione Speedy Clean, grande versatilità e idoneità all’utilizzo intensivo 24/7. Durante la manifestazione fieristica l’innovativo concept per la pulizia laser degli anilox ingegnerizzato da Ulmex ha catalizzato l’attenzione di clienti e prospect, con i quali sono già state avviate numerose trattative. Un successo coronato dalla vendita della macchina in mostra allo stand, acquistata da un’azienda tedesca presso cui verrà installata nelle prossime settimane. “Nel corso della kermesse abbiamo avuto modo di confrontarci con operatori provenienti da tutto il mondo”, commenta Angelo Maggi, amministratore di Ulmex Italia. “Un dialogo che ha confermato la validità della tecnologia laser che abbiamo messo a punto”.

Tra le caratteristiche della nuova Evolux che hanno destato l’interesse dei visitatori di K, prima fra tutte la sostenibilità ambientale, una tematica particolarmente sentita non solo dagli stampatori europei, ma anche dai numerosi operatori provenienti da mercati emergenti, come India e Cina. In questo senso, l’esclusiva sorgente laser a impulsi che rappresenta il cuore tecnologico di Evolux è l’unica soluzione realmente “green” per la pulizia degli anilox, in quanto non richiede l’impiego di solventi chimici, detergenti, bicarbonato o altre sostanze inquinanti. Inoltre, la nuova release di Evolux è stata potenziata per migliorare ulteriormente i livelli di efficienza, con l’obiettivo di garantire significativi vantaggi in termini di ottimizzazione dei processi, riduzione dei consumi, anche energetici, e contenimento dei costi di produzione.

Altro plus di Evolux particolarmente apprezzato, la possibilità di attuare un processo di controllo analitico e strutturato finalizzato alla gestione ottimale dell’interno parco anilox aziendale. Un approccio innovativo, che va oltre la pulizia fine a se stessa, orientato al raggiungimento di nuovi livelli di qualità ed economicità nella gestione di qualsiasi tipologia di anilox, sia ceramici sia cromati, sia sleeve sia rulli. Ciò è possibile grazie al lavoro congiunto del microscopio 3D, integrato direttamente nella macchina, e del software proprietario di processo DAM (Dynamic Anilox Management). Il microscopio, infatti, permette di effettuare accurate misurazioni il cui output sono informazioni che vengono successivamente elaborati dal software, dando vita a una banca dati funzionale al monitoraggio continuo e puntuale del parco anilox in ottica di manutenzione predittiva. Ciò permette di valutare caso per caso se procedere con la pulizia oppure se pianificare la rigenerazione, garantendo una corretta manutenzione degli anilox e allungandone il ciclo di vita.

Liyu entra nel mercato di fascia alta con la nuova gamma PRO XL

Da brand emergente a protagonista del mercato internazionale della stampa digitale con prestazioni industriali. A poco più di 6 anni dal suo debutto in Italia quella di Liyu è una progressione continua, come dimostra il successo riscosso nel corso dell’ultima edizione di Viscom, dove tutte le novità tecnologiche presentate in fiera sono state accolte con entusiasmo. Il nuovo che avanza è ormai una certezza e ora Liyu rilancia con i nuovi sistemi della gamma PRO XL con cui entra di diritto nella categoria dei produttori di fascia alta.
Caratterizzata da performance ulteriormente incrementate in termini di produttività e qualità di stampa, la nuova linea PRO XL raddoppia di fatto la già vasta gamma di soluzioni per applicazioni industriali proposte dal brand, ampliando il target di riferimento per rispondere efficacemente anche alle esigenze di grandi stampatori e realtà industriali. Tra i sistemi in mostra che hanno catalizzato l’attenzione dei visitatori di Viscom, la flatbed KC 3020 Pro XL, in grado di raggiungere velocità di stampa fino a 360 mq/h senza compromessi sulla qualità, e la ibrida Q3 Pro XL, contraddistinta da un’altissima cura del dettaglio, le cui prime due vendite sono state messe a segno proprio nel corso della kermesse milanese. Come tutte le stampanti della linea PRO XL, KC 3020 Pro XL e Q3 Pro XL sono equipaggiate con l’esclusivo carrello di stampa in formato Extra Large, in grado di montare fino a 16 teste di stampa offrendo prestazioni ancora più elevate in termini di produttività. La serie Pro XL presenta, inoltre, un’altra grande novità: il motore lineare magnetico con encoder metallico, innovazione messa a punto dal reparto R&D di Liyu che permette la movimentazione del carrello tramite una banda magnetica, assicurando massima silenziosità ed eliminando qualsiasi vibrazione in fase di stampa. Tra le novità anche le barre di sicurezza a infrarossi per una sempre maggiore tutela degli operatori durante il processo di lavorazione. Inoltre, tutti i sistemi della gamma PRO XL montano teste di stampa Ricoh Gen 6 che assicurano un incremento della velocità del 30% rispetto al modello precedente e una qualità ancora più elevata grazie alla goccia da 5pl.
Liyu KC 3020 Pro XL e Q3 Pro XL sono già a disposizione dei clienti italiani che possono prenotare dimostrazioni personalizzate per testarne direttamente qualità, affidabilità, versatilità e scoprirne le innumerevoli potenzialità applicative.

Grande formato, guida ai diversi tipi di inchiostro

La viscosità dell’inchiostro gioca un ruolo fondamentale nel determinare la stampabilità. Se è troppo bassa la goccia emessa dalla testa risulta incontrollabile nelle traiettorie e forma, può causare sgocciolamenti in fase di pulizia, l’assorbimento da parte del supporto risulta eccessivo. Se è troppo elevata la goccia contrasta troppo la forza con la quale viene separata dalla restante massa di inchiostro

È sempre affascinante ragionare intorno al tema degli inchiostri, di qualsiasi tipo si parli. È l’elemento che dona visibilità al pensiero, che trasporta le parole e le immagini dalla mente che le ha originate ai destinatari del messaggio, sia che si tratti di singolo individuo o l’intera comunità degli abitanti del pianeta. Provocando tutta la gamma delle emozioni che il cervello può sperimentare. Lo sa bene chi si occupa di neuroscienze, i sociologi, gli psicologi, gli esperti di marketing. Anche se ai nostri giorni le immagini e i testi viaggiano sempre più sui media digitali, la sensazione prodotta da un prodotto stampato nel momento in cui viene fruito (toccato, osservato, letto) non è paragonabile all’equivalente esperienza digitale. Le neuroscienze ci dicono che la carta è un media “aptico” (dal greco apto, tocco) che coinvolge il tatto e per questo più coinvolgente dal punto di vista percettivo, crea più connessioni e a livello più profondo nel cervello anche in zone legate a percezioni relative al valore del prodotto.

Ed è affascinante parlare di inchiostri nei processi di stampa perché alla fine tutta la tecnologia che in secoli di stampa è stata prodotta e inventata, deve replicare il gesto che lo scrittore o l’artista fin dall’alba della civiltà ha ripetuto: dosare e indirizzare il colore su un supporto. E guardando con la lente di ingrandimento la tecnologia regina della stampa su grande formato, l’inkjet, l’immagine è ancora più sorprendente: tante goccioline di colore che letteralmente volano dal punto dove vengono prodotte al punto dove devono essere depositate. Se si pensa alle dimensioni delle goccioline (pochi picolitri) e alla velocità con cui le odierne macchine stampano, si capisce quale sia la sfida di questa tecnologia e quali studi vanno fatti sulle proprietà fisiche e chimiche degli inchiostri. La ricerca cerca di risolvere al meglio l’equazione che deriva dalle principali variabili che il mercato pone come requisiti desiderabili per i moderni impianti di stampa large format: produttività, qualità e velocità, gamma di supporti stampabili.

La piccola gocciolina di inchiostro deve possedere una serie di caratteristiche tali da bilanciare tutte le forze che agiscono durante l’azione di eiezione dalla testa di stampa, e considerando appunto le dimensioni di questa, è veramente sorprendente la sfida che la ricerca deve affrontare.

Le basi per la formulazione

La formulazione di un inchiostro deve tenere presente molti parametri di base affinché siano garantite i requisiti di stampabilità e di qualità:

–   Il rapporto tra soluto (il pigmento o colorante) e solvente (il veicolo) evitando che la concentrazione del soluto saturi la soluzione precipitando; in certi casi estremi appunto, esempio nei pigmenti molto pesanti come il bianco, per evitare la separazione dei componenti, l’inchiostro deve essere periodicamente rimescolato.

–   La temperatura di ebollizione della soluzione di inchiostro, cioè quella in cui la tensione di vapore dell’inchiostro eguaglia la pressione dell’aria circostante.

–   La stabilità chimica e fisica dell’inchiostro, che deve garantire la durabilità del prodotto.

–   La tensione superficiale dell’inchiostro, una delle caratteristiche fondamentali sia in fase di generazione della goccia che di adesione sul supporto: se la tensione è troppo bassa, in fase di eiezione si ha la formazione di gocce satellite, mentre, al contrario, se la tensione è troppo alta, si rischia l’otturazione degli ugelli. Naturalmente anche nel momento in cui la goccia di deposita sul supporto, la tensione superficiale determina la forma che questa avrà e come si disporrà.

–   La viscosità, che è un parametro di base di tutti gli inchiostri, negli inchiostri inkjet lo è in modo particolare: pochi cP (centiPoise) di differenza cambiano il comportamento durante la generazione e eiezione della goccia: bassa viscosità si traduce in cattivo controllo della goccia, viscosità più alta determina un buon controllo di volume e forma della goccia di inchiostro, ma una viscosità eccessiva può causare l’otturazione più frequente degli ugelli di stampa.

Le tecnologie di inchiostri oggi disponibili per la stampa inkjet di grande formato differiscono per la modalità con cui le gocce di inchiostro vengono fatte asciugare sul supporto, posto che l’essiccazione dell’inchiostro, in tutte le tecnologie, consiste sempre nel separare la fase liquida della soluzione dal pigmento o colorante.

GAMMA&PROPRIETÀ

Inchiostri a solvente, eco-solvente

Questa tecnologia, che ha segnato il periodo iniziale della stampa di grande formato con le stampanti a solvente, utilizza inchiostri a base solvente che vengono fatti evaporare dopo la deposizione della goccia. Le stampanti a eco-solvente, usano sostanze organiche meno pericolose per la salute e biodegradabili, che rendono gli impianti e gli ambienti di lavoro più compatibili con le attuali attenzioni che il mondo del lavoro richiede. La loro resa cromatica e la resistenza a luce e agenti esterni, nonché il costo finale dei prodotti, rendono questo processo ancora una soluzione valida per certe applicazioni.

Latex

È un inchiostro a base acqua composto dalla componente colorante (pigmento) e dal veicolo che è acqua (circa il 70%) e un lattice sintetico, un polimero che avvolge il pigmento una volta evaporata la parte acquosa e lo fissa sul supporto, rendendolo versatile su una vasta gamma di materiali, differentemente dai semplici inchiostri a base d’acqua. Il bassissimo impatto ambientale dei materiali coinvolti è stato sempre il cavallo di battaglia di questa diffusissima tecnologia di inchiostro.

Inchiostri UV e UV LED

In questa tecnologia di inchiostri, la composizione base è costituita da monomeri, che danno la struttura, resine e composti opportunamente formulati per conferire l’adesività su una vasta gamma di supporti, il pigmento che ovviamente conferisce il colore e il componente fondamentale per questa tecnologia e il fotoiniziatore, il catalizzatore che innesca il processo di polimerizzazione che solidifica i monomeri e le resine presenti.

Inchiostri UVgel

È l’ultima nata in termini di tempo come tecnologia di inchiostri, consiste in un inchiostro che reagisce alle radiazioni UV per solidificare come nell’UV LED tradizionale, ma a temperatura ambiente ha una consistenza di gel. Quindi viene gettato dalle teste in fase liquida, si trasforma in gel sul supporto e poi solidifica grazie all’UV.

Gli inchiostri sotto diversi angoli di osservazione

La sostenibilità

Attualmente incontriamo questa parola ovunque ci giriamo, è un parametro che guida tutte le attività della società, e a cui i produttori di tecnologia prestano tutta l’attenzione del caso. Siamo abituati a trovare sugli elettrodomestici le etichette di efficienza energetica, che ci guidano nella scelta dell’apparecchio meno energivoro. In questo periodo poi, in cui i costi dell’energia stanno diventando il problema per tutte le filiere produttive, a maggior ragione i consumi rivestono un ruolo fondamentale. Analizzando le diverse tecnologie di inchiostro per la stampa inkjet, si può dire che tutte hanno necessità di impiegare energia per far passare l’inchiostro dalla fase liquida a quella solida. E la richiesta di velocità sempre maggiori naturalmente accentua questo bisogno. Per asciugare l’inchiostro fondamentalmente vi sono due metodi: usare il calore per accelerare la reazione di evaporazione della parte liquida dell’inchiostro, oppure utilizzare l’energia sotto forma di radiazione UV che innesca una reazione chimica di reticolazione. Di fatto dal punto di vista fisico è la stessa cosa, nel senso che cambia semplicemente la lunghezza d’onda con cui s’irradia l’inchiostro: radiazione infrarossa nel caso degli inchiostri a solvente e Latex, radiazione UV nel caso degli inchiostri UV e UVgel. Ora, sotto il profilo del consumo di energia, il processo di essiccazione degli inchiostri Latex è più energivoro rispetto agli altri, ossia consuma più energia per ottenere il risultato di un film solidificato sul supporto. Se la tecnologia Latex si distingue senza dubbio per la natura verde dell’inchiostro impiegato (HP, per sottolineare provocatoriamente questo concetto, da sempre sostiene che l’inchiostro Latex si potrebbe bere… ) e sicuramente rappresenta un plus nei confronti delle altre tecnologie, solvente, eco-solvente e UV, paga però dazio sul fronte del consumo energetico, per il fatto che il supporto di stampa deve essere riscaldato per far evaporare l’acqua, che ha un punto di ebollizione piuttosto alto. Inoltre il riscaldamento per alcuni materiali può essere una limitazione.

Applicazione dell’inchiostro e consumi

La natura acquosa dell’inchiostro Latex, porta con sé alcune prerogative nella modalità con cui la goccia si depositata sul materiale da stampare. Innanzitutto, su materiali assorbenti, una percentuale del volume penetra all’interno del supporto in volume maggiore che nelle altre tecnologie. Il tempo necessario per il completo fissaggio dell’inchiostro con il calore causa questa migrazione, che varia evidentemente da supporto a supporto. Se questo può essere considerato uno svantaggio, da un altro punto di vista può essere un vantaggio: infatti la capacità di sopportare le pieghe senza che la pellicola faccia “crack” è superiore, grazie appunto alla maggiore penetrazione.

UV e UVgel

Sicuramente la tecnologia LED ha portato grandi benefici ai dispositivi di asciugatura basati sulla polimerizzazione UV degli inchiostri. Questo è vero sia nella stampa tradizionale (offset, flexo, serigrafica), che nella stampa inkjet. L’UV tradizionale, basato su lampade ai vapori di mercurio, ha degli inconvenienti evidenti, anche se dal punto di vista dell’efficacia, forse consente ancora risultati migliori. Ma al prezzo di essere molto energivora, di emettere nel suo funzionamento ozono, di essere quindi difficilmente sostenibile sotto il profilo ambientale.

Negli inchiostri UVLed, una lampada a LED irradia la goccia immediatamente dopo che questa è stata depositata, determinando la solidificazione dell’inchiostro praticamente all’istante. Questo rende possibile l’impiego di materiali non assorbenti e anche rigidi, come vetro metallo e simili. L’essiccazione immediata dell’inchiostro permette di creare una pellicola superficiale e una minore penetrazione su supporti assorbenti, se si paragona con la tecnologia Latex. La goccia ha quindi un “dot gain” naturale inferiore. La tecnologia UVgel che Canon ha introdotto qualche anno fa, rappresenta una soluzione certamente molto interessante, per caratteristiche del processo e per la qualità che riesce a garantire. La goccia che viene depositata sul supporto è appunto sottoforma di gel. Questo rende minimo quel fenomeno di dilatazione “spreading” tipico delle gocce liquide, la goccia rimarrà confinata nell’area del supporto dove è stata posizionata. Le gocce di differenti colori non avranno quindi la tipica sovrapposizione, garantendo una migliore saturazione nei colori a parità di volumi depositati e una qualità più costante. Il gel inoltre non rende indispensabile di irradiare la goccia con la radiazione UV non appena stampata, in quanto già parzialmente ancorata al supporto; l’esposizione alla lampada può avvenire quando tutto lo strato di inchiostro è stato stampato nei passaggi previsti. Il risultato è uno strato più uniforme e liscio rispetto all’inchiostro UV tradizionale, che rappresenta un vantaggio soprattutto se il materiale va successivamente laminato. Inoltre modulando le fasi di irraggiamento con dosi leggere e energiche in momenti diversi, è possibile ottenere una finitura matte o glossy.

La stampa grande formato è un mercato che per varietà di supporti e applicazioni non ha uguali in tutti gli altri comparti. Per questo oggi la scelta della tecnologia di stampa sempre più deve essere fatta in base alla tipologia di prodotti che si intende realizzare. Non esiste la tecnologia che per qualità, produttività, versatilità, può essere considerata superiore a tutte le altre. Quindi si vende e si compra l’applicazione, non la tecnologia.

Webinar: come si costruisce la figura del Packaging Specialist

Mercoledì 9 novembre alle ore 10.30 l’appuntamento è con il webinar di presentazione del Corso ITS AR Packaging 2022/24. Il webinar, destinato alle Aziende cartotecniche e grafiche milanesi e lombarde, è organizzato da Fondazione ITS Angelo Rizzoli e Unione Industriali GCT Milano per presentare il terzo Corso biennale ITS Packaging Specialist, le competenze in uscita e le possibili collocazioni aziendali degli allievi.

Il presidente dell’Unione, Tiziano Galuppo, sottolineerà l’impegno delle nostre Associazioni per lo sviluppo di un consolidato sistema ITS e l’importanza di intensificare il rapporto di collaborazione fra scuola e azienda.

Inoltre, saranno illustrate le modalità di svolgimento degli stage che prevedono, per i 23 allievi del secondo anno del biennio ITS in corso, l’utilizzo dell’apprendistato con i relativi vantaggi per le nostre aziende che potranno ospitarli continuativamente per 6 mesi, da gennaio a giugno 2023.

Uno spazio sarà dedicato anche al corso annuale IFTS Packaging che, avviato in parallelo, ha avuto un ottimo riscontro e fornisce pre-stampatori/progettisti di packaging e operatori su macchine da stampa.

Obiettivo è rendere maggiormente partecipi le nostre aziende alle varie fasi di co-progettazione, didattica dei corsi, tirocini e stage in questo delicato momento di ricambio generazionale abbinato all’esigenza di poter disporre di forze lavoro giovani e altamente qualificate.

Federazione Carta e Grafica partner del V Forum di Legambiente sulla gestione forestale sostenibile

Necessarie misure per promuovere gli investimenti privati nell’incremento e nella gestione della forestazione per mitigare il cambio climatico e migliorare il mix energetico della manifattura Made in Italy.

Massimo Ramunni Vice Direttore di Assocarta è intervenuto, in rappresentanza di Federazione Carta Grafica, al V Forum sulla Gestione Forestale Sostenibile organizzato da Legambiente.

“Il 90% della fibra di cellulosa utilizzata nella produzione cartaria“ afferma Ramunni nel suo intervento al Forum “è dotata di certificazione forestale in grado di attestare la sostenibilità del bosco o della piantagione di provenienza, grazie agli schemi di certificazione forestale Fsc e Pefc, riconosciuti dall’Unione Europea. Le cartiere italiane verificano infatti la legalità dei propri approvvigionamenti di legno e cellulosa sulla base di norme europee che non hanno eguali per gli altri materiali.

Inoltre il 62% delle fibre complessivamente impiegate in Italia sono di riciclo, grazie al sistema di raccolta e riciclo sul quale la filiera cartaria ha sempre investito in termini di miglioramento di target ed innovazione”.

Nel corso della tavola rotonda si è inoltre parlato di Strategia forestale nazionale (SFN) volta a  definire gli indirizzi nazionali per la tutela, la valorizzazione e la gestione sostenibile del patrimonio forestale nazionale e per lo sviluppo del settore e delle sue filiere produttive, ambientali e socio-culturali, compresa la filiera pioppicola.

“La Strategia Forestale Nazionale” ha affermato Ramunni “è un’occasione straordinaria per una gestione forestale sostenibile: sono necessarie misure per promuovere gli investimenti privati nell’incremento e nella gestione della forestazione per mitigare il cambio climatico e  migliorare il mix energetico dell’industria Made in Italy”. “L’industria cartaria italiana in quanto energivora ha una forte competenza nella gestione efficiente nei sistemi energetici per questo candidiamo il nostro settore per produrre energia da biomassa che verrebbe gestita al meglio in termini di efficienza e di controllo delle emissioni. E i cascami di energia potrebbero essere utilizzati direttamente dalle utenze private presenti sul territorio” evidenzia Ramunni.

La SFN comporterà benefici in termini di riduzione della CO2 in atmosfera, un’industria più competitiva sul profilo della decarbonizzazione, una migliore gestione del territorio e una produzione di biomasse per contribuire ulteriormente alla decarbonizzazione dell’energia.

“Assocarta con AIEL, Associazione italiana energie forestali” conclude infine Ramunni “sta lavorando su un’azione comune per aumentare l’utilizzo di biomasse nel menù per decarbonizzare l’industria cartaria”.

 

Lecta, imballaggi più sostenibili

Lecta, impegnata per un mondo senza rifiuti, continua a focalizzare i suoi obiettivi sulla continua ricerca di soluzioni innovative basate su materie prime naturali e rinnovabili che contribuiscano al raggiungimento di un’economia circolare.

A tal fine, Lecta parteciperà attivamente come sponsor agli eventi sulla sostenibilità più importanti nel settore degli imballaggi: Sustainability in Packaging Europe (Barcellona, 1-4 novembre 2022) e Plastic Free World Conference&Expo (Colonia, 9-10 novembre 2022).

In occasione di questi due appuntamenti internazionali, i principali produttori, gli esperti di economia circolare e altri operatori del settore del riciclaggio e degli imballaggi si riuniscono per discutere diversi argomenti chiave come le ultime tecnologie, i nuovi materiali, le migliori pratiche e le risorse sostenibili.

Lecta, ispirandosi alla natura, presenterà i suoi progressi nello sviluppo di prodotti che proteggono l’ambiente, nonché la sua gamma completa di carte funzionali per imballaggi nature-friendly, senza polietilene, completamente riciclabili, offrendo così soluzioni uniche per applicazioni food service e di imballaggio flessibile.

XI Convegno Nazionale ENIP-GCT Scuole Grafiche e Cartotecniche

Si è tenuta a Bari l’XI Edizione del Convegno Nazionale delle Scuole Grafiche e Cartotecniche organizzato dall’Ente Nazionale per l’Istruzione Professionale Grafica, Cartotecnica e Trasformatrice, che ha riunito sotto la prestigiosa cornice del Circolo dell’Unione – Teatro Petruzzelli, simbolo della città ospitante e di altissima artigianalità, tutti gli attori di un comparto che ha un’incidenza di fatturato dell’1.4 sul Pil Nazionale.

Presenti oltre 30 Scuole a indirizzo Grafico e Cartotecnico, a cui era espressamente dedicata la giornata dei lavori; i vertici delle Associazioni nazionali datoriali (Assografici, ARGI, ACIMGA, ATIF, GIFCO, TAGA Italia, AIMSC); le Federazioni Sindacali di categoria (SLC-CGIL, FISTEL-CISL, UILCOM); le Istituzioni nazionali e locali (la Presidenza del Consiglio dei Ministri, la Direzione Generale degli Ordinamenti Scolastici del Ministero dell’Istruzione, la Regione Lazio, la Regione Puglia, il Comune di Bari); la Confindustria locale (Puglia, Bari e BAT e Giovani Imprenditori) e gli Sponsor, che con il loro prezioso contributo hanno supportato l’intera manifestazione: Comieco, Conai, Heidelberg, Koenig&Bauer, Ricoh, Fondo Pensione Byblos, Salute Sempre e UniSalute.

Titolo e leitmotiv dell’intero Convegno: la Professionalità, il Valore e l’importanza di Orientare, Formare, preparare i giovani, che con le loro competenze dovranno supportare le aziende di settore, oggi più che mai in cerca di figure professionali aggiornate, motivate ed in linea con le esigenze di un mercato in continua trasformazione.

Dopo i saluti iniziali di: Domenico Di Marsico, Presidente del Comitato Provinciale ENIPG di Bari; Eugenio Di Sciascio, Vice Sindaco del Comune di Bari e Donato Notarangelo, Presidente di Confindustria Bari e BAT Giovani Imprenditori, che sono entrati subito nel merito dell’importanza delle competenze, ha aperto i lavori il Presidente dell’ENIPG, Marco Spada, da anni al vertice del più antico Ente bilaterale italiano. Spada ha subito ufficializzato la nuova denominazione dell’Ente, che da maggio scorso si presenta con una nuova veste: ENIP-GCT, inglobando istituzionalmente anche il comparto cartotecnico-trasformatore. “Un cambiamento importante, che formalizza un’apertura già in atto da diversi anni verso il mondo della cartotecnica e del packaging contestualmente al riconoscimento delle Parti dell’Ente in seno al CCNL Cartotecnici industria”.

Nel suo intervento Marco Spada ha anche presentato la nuova collaborazione in piedi da aprile scorso tra l’Ente Nazionale e l’Istituto Tecnico Tecnologico Marconi-Hack di Bari, con l’indirizzo Grafica e Comunicazione, una Scuola che ha dimostrato di avere i requisiti per poter entrare a far parte della grande famiglia delle Scuole già accreditate presso l’ENIPG, con cui c’è grande voglia di collaborare, vista l’assenza nel meridione di scuole riconosciute ed anche per rispondere più prontamente ai fabbisogni formativi delle aziende di settore locali, che rappresentano una compagine importante.

La giornata convegnistica del 18 ottobre ha visto avvicendarsi sul palco relatori d’eccezione, di alto profilo, a cominciare dal Magnifico Rettore della LIUC Federico Visconti, il quale durante la sua coinvolgente presentazione ha sottolineato, attraverso un excursus di citazioni estrapolate da famose fiabe per bambini, l’importanza dell’orientamento e della comunicazione. “Per far funzionare la ‘cinghia di trasmissione’ tra Scuola e Lavoro serve il contributo fattivo e sinergico di tutti: Istituzioni, Scuole, Fondazioni ITS, Università, politica, famiglie, media, giovani e società civile”.

A rappresentare il Ministero dell’Istruzione era presente un Alto Funzionario della Direzione Generale degli Ordinamenti Scolastici, Rosalba Bonanni, che da anni segue con interesse il nostro settore e le nostre curvature e che ha parlato del lavoro che il Ministero sta portando avanti per sviluppare la Riforma degli Istituti Tecnici in atto, a cui si vuole dare il più possibile un taglio aggiornato e aderente con le esigenze del mercato produttivo, per ridurre il famoso mismatch, ovvero imprese che offrono lavoro ma non trovano personale con i giusti requisiti, o candidati che non corrispondono a nessuno dei profili ricercati.

Il Presidente Marco Spada, durante il suo speech, ha introdotto anche la recente Riforma organica degli ITS dello scorso luglio, poi ripresa dalla Bonanni nel suo intervento, e che rappresenta uno dei punti più qualificati del Piano Nazionale di Ripresa e Resilienza (PNRR) per l’Istruzione, un’azione strategica per rendere la formazione terziaria professionalizzante più attrattiva per i giovani e per arricchire l’offerta anche in risposta alle esigenze del tessuto produttivo dei territori e delle nuove prospettive del mondo del lavoro e dell’economia. Il sistema degli ITS, a undici anni dal suo avvio, rappresenta un settore efficace in termini di qualità dell’offerta formativa e di occupabilità: secondo i dati del monitoraggio nazionale 2022, su 5.280 diplomati, l’80% (4.218) ha trovato un’occupazione nel corso dell’anno 2021, nonostante le restrizioni e le difficoltà causate dalla pandemia.

Durante la seconda parte dei lavori ci sono stati altri tre momenti molto apprezzati: l’intervento del Presidente di TAGA Italia, Alessandro Mambretti, il quale ha ricordato la pluriennale collaborazione in essere con l’ENIP-GCT a favore di tutte le Scuole italiane a indirizzo grafico e cartotecnico, soffermandosi sui documenti tecnici e studi di settore che TAGA mette a disposizione delle Aziende e dei Docenti per il loro aggiornamento professionale. Mambretti ha anche parlato dell’opportunità di coinvolgere le Scuole presenti nell’organizzazione e promozione del prossimo Concorso di abilità dedicato alla memoria di Alberto Sironi, in collaborazione con ARGI e Zeta’s Edizioni; l’evento di Premiazione del Concorso Nazionale 2020/2021 Modiano – ENIPG “Realizza il Logo e le Carte da gioco celebrative per i 150 anni di Modiano” durante il quale i presenti sono stati onorati della presenza del Sindaco di Bari Antonio Decaro e del Presidente di Modiano SpA Stefano Crechici che, insieme a Marco Spada, hanno premiato con delle importanti borse di studio messe a disposizione da Modiano alcuni studenti creativi e meritevoli selezionati da un’attenta Commissione di esperti tra oltre 700 candidature pervenute lo scorso anno alla Segreteria dell’ENIPG Nazionale; infine, la tradizionale Premiazione con la Targa d’Oro ENIPG dedicata alla memoria di Alberto Gajani, consegnata quest’anno ad una Donna: Elisabetta Giustini, Dirigente Scolastico dell’ITIS Galileo Galilei e dell’IIS Carlo Urbani di Roma, per il suo grande impegno dimostrato negli anni a favore dell’Istruzione e Formazione Professionale Grafica e Cartotecnica.

A tirare le fila di questa ricca giornata convegnistica il Direttore dell’ENIP-GCT Tommaso Savio Martinico, che ha nuovamente ringraziato tutti i presenti, in particolare il Presidente del Comitato Provinciale ENIPG di Bari, Domenico Di Marsico per il grande impegno profuso nell’organizzazione dell’intera manifestazione in collaborazione con lo Staff dell’ENIP-GCT Nazionale.