C’è chi è sicuro che nel futuro prossimo l’articolo giornalistico medio sarà scritto da modelli di intelligenza artificiale come ChatGPT. Le future esibizioni d’arte saranno redatte da reti neurali, dove verranno sfoggiati quadri generati digitalmente in pochi istanti. I cellulari saranno in grado di mandare vocali simulando la nostra voce. Il tutto a partire da un prompt, o da un input, umano.
Ci sono diversi tipi di modelli di intelligenza artificiale, ma che cos’è un modello? Spiegato in umano da un umano: un algoritmo software prende in input un set di dati, più grande e di qualità è tanto meglio, e ne genera un sistema di classificazione in base alle caratteristiche che hanno in comune i dati o informazioni, e il grado di confidenza della veridicità della risposta. Questa fase è chiamata training. Prendete migliaia foto di gatti, datele in lavorazione a un algoritmo di classificazione e costruirà una rete di informazioni che sarà in grado di dirvi se in una qualsiasi nuova immagine proposta è presente un gatto. Fategli vedere una lince. E’ un gatto? Probabilmente si! Se vi serve riconoscere i diversi tipi di felini con precisione allora bisogna categorizzare migliaia di immagini per la razza di appartenenza e proporli al software. Il gatto è su un tavolo? Che cos’è un tavolo? Il modello non ha la capacità di riconoscere qualcosa di cui non ha informazioni. Ci sono poi diversi metodi di rinforzo del modello, alcuni prevedono una conferma umana, un sistema di feedback iterativo per raddrizzare le future categorizzazioni e permettergli di imparare dalle risposte precedenti. Avete presente quando Google vi chiede di riconoscere i semafori nelle immagini per passare un test anti bot? Ecco, state aiutando a rinforzare i loro modelli di AI relativi al riconoscimento immagini. Davvero.
ChatGPT è un modello linguistico molto avanzato ed è stato formato su tantissimi testi reperibili online: siti web, libri, articoli, blog.. Forse anche questa stessa pubblicazione. Questo sistema ha quindi acquisito un’enorme quantità di informazioni su svariati argomenti. Dopodichè tramite un processo iterativo, gli è stato insegnato come funzionano le conversazioni, in modo tale da permettergli di poter non solo capire quali sono i soggetti da collegare ma anche come presentarli in maniera conversazionale. Pure questa ultima fase è fortemente umana: sono state presentate diverse domande su il tutto e il poco, e il modello ha dato diverse risposte. Degli operatori hanno poi classificato in graduatoria le diverse risposte dalla migliore alla peggiore, e tornando questa classifica al modello lui ha rinforzato la sua tecnica.
Funziona similarmente per quanto riguarda la generazione delle immagini: grandi set di immagini categorizzate, modelli già trainati in modo tale da riconoscere i soggetti più comuni nella realtà: persone, animali, mezzi di trasporto, cibi. Algoritmi in grado di scindere a livello atomico quello che riconoscono nell’immagine, trasformano l’informazione in vettori e li mettono in collegamento tra loro considerando tutto ciò a cui gli è stato chiesto di prestare attenzione: geometria, proporzioni, colori… ma nel caso delle opere d’arte anche stile, periodo, corrente artistica e chi più ne ha più ne metta. Più informazioni di qualità ci sono nel modello e più sarà facile per tale AI riconoscere qualcosa o imitarla su richiesta.
Paul Graham, uno dei fondatori del linguaggio di programmazione LISP (il primo a essere utilizzato negli anni ’60 per lo sviluppo di AI), in un suo recente post su Twitter, ha parlato di studi che già correlano l’abuso di ChatGPT alla perdita dell’abilità di scrivere, che è direttamente collegata a quella di pensare. Secondo la BCC migliaia di posti di lavoro sono già stati rimpiazzati dall’AI, già si grida all’apocalisse, e la direzione sembra quella.
Nella mia visione delle cose, ci vedo però molto di umano in questa AI. I modelli per quanto avanzati non fanno niente di diverso da quello per cui sono stati programmati. Un algoritmo di riconoscimento sa che cos’è cosa perché gli è stato insegnato. ChatGPT risponde a quello che gli è stato chiesto, e pur di non fare scena muta fornisce risposte casuali. Arte generativa? Si basa comunque su un input umano, che se non è ben pensato, ben scritto e dettagliato darà sempre dei risultati mediocri. E anche questi risultati saranno sempre delle imitazioni di qualcosa che gli è stato permesso di imparare nella fase di training. L’arte è manifestazione estetica dell’animo umano, e nessun modello si può inventare un’emozione. Al massimo la può imitare se riconosciuta, ma comunque l’input verrà da chi gli sta chiedendo cosa fare. L’AI può essere in generale uno strumento molto utile su diverse cose, ma se avete a cuore il vostro futuro quando la usate continuate a pensare, a scrivere, a essere creativi, a essere umani. Nella peggiore delle ipotesi sarà più difficile rimpiazzarvi.
Antonio Dal Cin