top of page

COME SFRUTTARE L'AI GENERATIVA NEL DESIGN. Dai prompt alle immagini fotorealistiche

Scrivo questa breve introduzione con il cervello che fuma! Dopo aver passato la giornata a cercare di comprendere il funzionamento dell’Intelligenza Artificiale Generativa, ho deciso di riportare un esempio estremamente semplificato che mi ha aiutato a capirne qualcosa. Se siete invece interessati solo al lato pratico, potete tranquillamente saltare l’intro, anche se sarebbe un vero peccato.


Indice:


1.Introduzione ed esempio pratico

Sostanzialmente la magia a cui assistiamo ogni volta che chiediamo a piattaforme come Midjourney, Run diffusion ecc. di creare delle immagini partendo da un prompt (insieme di parole chiave), avviene grazie allo sfruttamento di Modelli di Fondazione, modelli di machine learning addestrati su un ampio spettro di dati. La cosa davvero innovativa è che i modelli generativi riescono a comprendere la distribuzione delle diverse caratteristiche dei dati e le loro relazioni.


Mi spiego meglio, ipotizziamo che vogliate creare un’immagine di un tempio orientale ai piedi di una cascata. Scriverete il vostro prompt (tempio giapponese ai piedi di una casca) e selezionate per generare l’immagine un modello generativo che è stato addestrato analizzando una quantità enorme di immagini (tra cui migliaia di templi e cascate) ed in grado di individuare le variabili (tipo di struttura, materiale degli edifici, forma, stile, tipo di facciate ecc.) comprendendo le relazioni tra le varie variabili e l’oggetto (tempio). Il modello è quindi in grado di utilizzare le variabili e le relazioni per creare nuove immagini realistiche diverse da quelle di partenza, con cui è stato addestrato il modello!



2. Il problema del copyright

E’ proprio da qui che nasce uno dei principali dibattiti sull’intelligenza artificiale generativa, ovvero il copyright. Tramite i prompt, con i quali puoi dare indicazione di creare un’immagine riproducendo uno stile ben specifico, per esempio un’architettura di Tadao Ando, l’output potrà essere molto simile a qualcosa di già esistente, magari in un contesto diverso, proprio per il processo descritto nel capitolo precedente.


3. I diversi modelli di AI generativa

In realtà ci sono diversi modelli di AI generativa che elenco di seguito:

  • Modelli di diffusione

  • Reti generative contraddittorie

  • Autoencoder variazionali (VAE)

  • Modelli basati su trasformatori


4. Piattaforme per sfruttare al meglio l'AI generativa

Nel capitolo precedente abbiamo compreso, a grandi linee, il processo alla base dell’Intelligenza artificiale generativa, ora è il momento di conoscere alcune delle piattaforme che sfruttano questa tecnologia.


Vi confido che non sono mai stato un grande smanettone nel creare render fotorealistici e i pochi che ho fatto da solo di certo non brillavano per effetto wow. Negli ultimi tempi abbiamo avuto la necessità di presentare velocemente alcune idee ai clienti, il tempo per rivolgersi ad uno studio specializzato in render non c’era, e quindi ho iniziato a sondare delle soluzioni alternative, che potessero fornire un risultato accettabile in poco tempo.


Le piattaforme:

  • Stable Diffusion modello di deep-learning per creare immagini a partire da un input testuale o da un’altra immagine. Smanettando un po’ si scoprono delle funzioni interessanti come Control net, che ti permette di prendere come riferimento un’immagine a cui applicare il prompt di testo per generare il risultato finale (in genere utilizzo come immagini gli schizzi a penna).

    La creazione dell’immagine desiderata è un processo iterativo, in cui bisognerà di volta in volta modificare il prompt per correggere alcune imprecisioni o fantasie dell’AI generativa.

  • Adobe firefly molto più intuitivo e user friendly del precedente, a mio avviso ha molte meno potenzialità e meno controllo sull’output desiderato.

  • Midjourney fa lo stesso lavoro di Stable diffusion, più user friendly e un po’ più caro.

  • PromeAI se il vostro processo creativo parte con un disegno questo potrebbe essere lo strumento giusto per voi. PromeAI genera immagini realistiche a partire dagli sketch. Il modello crea diverse distorsioni/interpretazioni rispetto all’idea di partenza.


Utilizzando questi strumenti in poco tempo si riescono ad ottenere dei risultati fotorealistici interessanti, con qualche imprecisione ma adatti ad una fase di sviluppo concettuale.


5. L'importanza del Prompt. Esempio step by step

Come avrete capito il prompt di comando assume un ruolo fondamentale per ottenere buoni risultati ed è obbligatorio imparare a padroneggiarlo. Le varie piattaforme hanno regole differenti, ma il concetto non cambia: si basa tutto su parole chiave e sulla priorità che scegliamo di attribuiamo alle parole.

Piattaforme come Run Diffusion e Midjourney permettono di inserire anche il negative prompt, in cui inseriremo le parole chiave che non vogliamo nella nostra immagine finale. Il segreto è essere più chiari possibili. Volendo ci si può fare aiutare nella scrittura del prompt da Chat Gpt.

Riprendiamo l’esempio di prima, il tempio sulla cascata, ed useremo Run Diffusion. Una volta registrati nella piattaforma online, quello che vedrete è la seguente interfaccia:

Dopo aver selezionato il modello pre-addestrato, come da immagine sotto riportata:

Andiamo a scrivere il prompt ed il negative prompt per parole chiave. Per dare più importanza ad una parola si può usare il seguente linguaggio (parola chiave:1.2).


Prompt: (tempio giapponese:1.2), cascate, in un canyon,( golden hour:1.1), masterpiece, highly detailed, highly accurate,accurate lines, (8K UHD:1.2), (photorealistic:1.2), Cinematic Lighting, 4k, render, post production, 3D, cinema4D


Negative Prompt: Dark, low res, pixelated, cgi, animated, watermarked, blurred, poorly drawn, anime, blur, text, error, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, b&w, weird colors, cartoon, 3d, bad art, poorly drawn, close up, blurry, lowres

Ora impostiamo il sampling method; solitamente per immagini fotorealistiche uso DPM++2M:

Un altro parametro importante da impostare è CFG Scale, che regola la creatività del processo generativo, solitamente la imposto tra 4 e 7. Più il numero sarà basso più l’output sarà fedele al prompt immesso.

Ora puoi generare la tua immagine cliccando sul pulsante arancione Generate, in altro a destra e goderti il risultato!



6. Considerazioni personali

L’esempio appena visto è molto semplice, in realtà ci si può spingere molto oltre, sfruttando degli strumenti messi a disposizione dalla piattaforma, come Control Net, che permette di partire con il processo generativo da un’immagine di riferimento da noi scelta a cui viene applicato in maniera iterativa del rumore (modifiche) o come In painting. Sicuramente faremo un altro articolo per vedere le potenzialità di questi strumenti.

E’ importante chiarire che la figura del renderista rimane necessaria per ottenere risultati di livello, consoni a rappresentare le nostre idee e progetti al pubblico, al committente o ad una commissione di gara. Per quanto ho potuto sperimentare l’IA ha troppe variabili difficilmente controllabili in tutti gli aspetti.

Anche la figura del Progettista/Designer rimane fondamentale, l’AI può darci spunti estremamente interessanti, ma spetta a noi renderli realizzabili e sensati, mettendoci del nostro e rielaborandoli secondo il nostro stile. Da questo punto di vista trovo l’AI generativa estremamente utile per potenziare il processo creativo.


Come al solito vi invitiamo a condividere la vostra opinione e la vostra esperienza sul tema, anche tramite mail. Ogni spunto interessante e ben accetto.

La prossima pubblicazione è programmata per mercoledì 9 ottobre, vi aspettiamo!


Buon lavoro!


 

Autore: Ing. Federico Favero

Laureato in Ingegneria edile-architettura presso l'Università di Padova, ha maturato esperienza sul campo partecipando alla Direzione Lavori di importanti commesse, alla progettazione esecutiva e concettuale di diversi progetti, sviluppando un forte interesse per i dettagli costruttivi. Dal 2020 è Professionista Antincendio.

Comments


bottom of page