Trevor Burgess
Ho studiato Letteratura all’Università in un periodo in cui semiotica e strutturalismo dominavano l’analisi dei testi letterari. Nel dipartimento di letteratura, si tendeva a considerare il linguaggio come il mezzo fondamentale attraverso cui comprendiamo il mondo. Nella sua espressione più estrema, alcuni docenti arrivavano a dichiarare che il mondo è un testo da leggere.
Oggi, però, i neurologi ci dicono che almeno il 40% dell’attività del nostro cervello è coinvolta nella visione. Dipingo e mi sono dedicato per tutta la vita alla pratica, allo studio e all’insegnamento del disegno e della pittura. Dalla mia esperienza, so che quando sono immerso nella creazione di un dipinto, le parti del cervello che elaborano il linguaggio sembrano spegnersi o andare in pausa. Chi mi conosce come una persona loquace potrebbe sorprendersi nel vedermi, dopo una lunga sessione in studio, quasi incapace di mettere insieme le parole.
Uno dei libri più influenti sull’insegnamento del disegno spiega perché accade questo. Si tratta di Disegnare con la parte destra del cervello di Betty Edwards. Il libro si basa su una comprensione della neurobiologia, secondo cui per la maggior parte delle persone le funzioni verbali, analitiche e sequenziali risiedono principalmente nell’emisfero sinistro del cervello, mentre le funzioni visive, spaziali e percettive sono collocate nell’emisfero destro. Il volume propone una serie di esercizi pratici di disegno progettati per aiutare gli studenti a “spegnere” il lato logico del cervello e attivare quello intuitivo.
E cosa c’entra tutto questo con l’Intelligenza Artificiale?
Mi colpisce il fatto che, tra tutti gli entusiasmi per la capacità dell’IA di “generare immagini” cercando di imitare le reti neurali del nostro cervello, ci sia poca discussione sul fatto che i modelli dominanti siano basati sul linguaggio. Le competenze fondamentali per usare in modo efficace la maggior parte degli strumenti di generazione di immagini con IA consistono nello scrivere prompt precisi, verbali e sequenziali, ovvero esattamente quelle funzioni dell’emisfero sinistro che interferiscono con la percezione visiva e spaziale, essenziale per imparare a disegnare e dipingere.
Esistono alternative, come i modelli “ControlNet”, che trasformano schizzi e pose in immagini – ad esempio Scribble o il “Realtime Canvas” di Leonardo – e che non si basano su prompt testuali. Tuttavia, i modelli principali non sono addestrati sulla percezione spaziale. Quello che sembrano fare a livello visivo è riconoscere schemi, il che si collega ai processi di disegno e pittura relativi alla superficie bidimensionale, ma è meno utile per costruire uno spazio convincente all’interno di un’immagine. Questo spiega in parte perché l’IA riesca a creare immagini di edifici o paesaggi riconoscibili partendo da descrizioni testuali, ma fatichi a trasformare una pianta bidimensionale in una visualizzazione tridimensionale.
Come si adattano gli insegnanti delle arti visive all’uso di questi nuovi strumenti?
Si dice che le nuove tecnologie siano dirompenti. Dobbiamo forse adattare le nostre attività “emisfero destro” per seguire il processamento dati dell’IA, tipico dell’emisfero sinistro? Imparare a scrivere prompt è inevitabile. Ma possiamo affrontare la cosa con le nostre personali “disruptions” creative di emisfero destro.
Ho visto un esempio esilarante su internet: qualcuno raccomandava i migliori generatori di immagini con IA e, per dimostrarne l’efficacia, aveva chiesto all’IA di creare una nuvola a forma di cane. Il risultato? L’IA ha prodotto una nuvola con una faccia di cane attaccata sopra (immagine a sinistra). L’utente ha quindi affinato il prompt ben 120 volte per rendere la nuvola sempre più simile a un cane e, orgoglioso, ha mostrato il risultato finale. E qual era? (immagine a destra). Hmm… Una nuvola con una testa di cane leggermente più dettagliata. Per quanto mi sforzi, continuo a non vedere un cane nella nuvola: niente zampe, coda o corpo. E voi?
Questo è il pensiero dell’emisfero sinistro: insistere, passare attraverso fasi successive per ottenere un risultato prefissato. Ma dopo 120 tentativi, la nuvola assomiglia ancora meno a un cane! Per esempio, un piccolo pezzo di nuvola in basso a destra che poteva sembrare una coda di cane si è staccato. L’IA ha tagliato la coda al cane!
E allora, perché non provare un approccio più “emisfero destro”? Rendere la nuvola una nuvola da pioggia? Far fare una passeggiata al cane? Chiedere all’IA di generare un suono di abbaio o di rimettere la coda al cane? Qualsiasi cosa per creare più stranezze e ottenere risultati inaspettati.
Parlando con artisti visivi che hanno sperimentato questi strumenti, ciò che li entusiasma è proprio l’imprevedibilità delle immagini generate dall’IA. Il timore è che, man mano che l’IA diventa sempre più precisa e controllata, questa imprevedibilità si perda. Il discorso sull’IA si concentra sull’efficienza e sulla velocità, e certo possiamo sfruttarle a nostro vantaggio. Ma se consideriamo la generazione di immagini con IA come uno strumento creativo, forse possiamo trarre una lezione dal libro di Betty Edwards: spegnere per un momento sia la nostra formazione visiva sia l’orientamento al risultato e pensare all’IA come a un processo di collage digitale iperattivo, che combina materiali preesistenti in modi strani e meravigliosi… come incollare cani e nuvole insieme.
Divertiamoci!