La linea sottile tra reale e virtuale

a cura di Thomas Ducato, giornalista di Impactscool, e Cristina Pozzi, Ceo e Co-founder di Impactscool

  • Neon, l’avatar umanoide presentato da Samsung a Las Vegas, promette di essere molto più di un assistente virtuale
  • La tecnologia utilizzata per Neon è simile a quella dei Deep Fake, l’ultima frontiera delle fake news
  • Come cambiano le relazioni nel mondo in cui reale e virtuale si fondono, diventando quasi indistinguibili?

“Una nuova forma di vita”. Sono stati definiti così da Pranav Mistry, capo del laboratorio StarLabs di Samsung, Neon, gli esseri umani artificiali presentati dal colosso sudcoreano in occasione del Ces 2020, la grande fiera tecnologica che si svolge ogni anno a Las Vegas. Non sono robot o “comuni” assistenti virtuali, ma veri e propri avatar umanoidi: sono realistici, intelligenti e persino in grado di manifestare emozioni. Almeno questo è quanto comunicato in occasione del lancio dai suoi creatori che hanno sottolineato come Neon sia destinato ad assomigliare sempre di più agli esseri umani grazie all’apprendimento automatico.
Da utilizzare come forma di compagnia, assistente o consulente, questo nuovo prodotto potrebbe rendere ancora più sottile il confine tra reale e virtuale.

Deep Fake: quando realtà e finzione diventano irriconoscibili

La tecnologia alla base di Neon non è troppo diversa da quella utilizzata per generare i cosiddetti Deep Fake. Questi sono un prodotto che possiamo chiamare sintetico, generato cioè attraverso un computer, e che interviene in un filmato “attaccando” il volto di un individuo al corpo di un altro attraverso algoritmi di Intelligenza Artificiale. Il Deep Fake in questo modo crea un falso impossibile da riconoscere a “occhio nudo”.
Ricordiamo in molti il video trasmesso da Striscia la Notizia che mostrava un fuori onda di Matteo Renzi, in cui l’ex segretario del PD commentava la sua uscita dal partito, lasciandosi andare a commenti coloriti sui suoi ex colleghi e su alcuni componenti del governo. Si trattava di un Deep Fake, in questo caso utilizzato come satira o per scherzo, ma che suggerisce tutto il potenziale di questa tecnologia.
Sono molte, infatti, le denunce online da parte di chi suggerisce che i possibili utilizzi malevoli sono tali da poter mettere a rischio la libertà. Immaginiamo, ad esempio, che questo tipo di filmati sia usato durante una campagna politica. È molto facile comprendere come potrebbero cambiare completamente le sorti di un Paese se utilizzate con cattive intenzioni. Oltretutto si tratta spesso di sistemi facilmente accessibili e disponibili anche online: basti pensare che secondo alcune indiscrezioni anche TikTok, il social network del momento tra i giovanissimi, starebbe realizzando un generatore di Deep Fake da aggiungere tra i suoi effetti.

In questo video della BBC si spiega come funziona questa tecnologia

Come funziona Neon?

Gli avatar di Neon, creati a partire dalle immagini di un essere umano ripreso da una videocamera, sono animati grazie a un sistema di reti neurali (intelligenza artificiale). In questo modo il personaggio virtuale apprende espressioni, gesti e linguaggio di una persona per poi riprodurli e rielaborarli in autonomia. La grande novità in questo caso è che mentre con Deep Fake manipolano dei video che vengono poi fruiti in differita, nel caso dei Neon le informazioni vengono utilizzate per animare gli avatar in tempo reale i Neon: ecco cosa si intende nel definirli forme di vita. Potremmo dire che si tratti di un’evoluzione molto convincente degli assistenti vocali a cui siamo abituati oggi, con potenziali applicazioni in molti settori che vanno dal marketing al mondo del lavoro, dall’assistenza fino alla sfera delle relazioni.

La demo dei Neon al CES 2020:

I pericoli dei Deep Fake: come difendersi

I rischi associati ai Deep Fake sono sotto gli occhi di tutti e per questa ragione è arrivata quasi unanime la condanna a questa tecnologia da parte di tutti i tipi di attori. Governi, come quelli di California e Virginia che hanno approvato leggi per contrastarli, centri di ricerca e agenzie governative, che si sono messi all’opera per sviluppare software in grado di riconoscerli e grandi aziende tecnologiche, come Twitter e Facebook, che hanno annunciato l’intenzione di dare loro la caccia per eliminarli dalle loro piattaforme.

Sarà sufficiente? Le elezioni americane sono all’orizzonte e il rischio che la comunicazione politica possa venire “inquinata” da queste nuove forme di Fake News è concreto e allarmante.
Come riuscire, dunque, a riconoscere e contrastare questi video falsi? Potrebbe essere proprio l’intelligenza artificiale, la stessa tecnologia che ne permette la creazione, l’arma a nostra disposizione per scovare i Deep Fake, grazie all’analisi dei video e all’individuazione di differenze impercettibili all’occhio umano. Prima che sia in grado di svolgere questo compito in modo efficace, però, l’IA deve essere addestrata: per questa ragione Google, in collaborazione con alcune università, tra cui l’Università Federico II di Napoli, ha creato e diffuso un database di video manipolati con questa tecnica, con lo scopo di allenare i meccanismi di riconoscimento.

Un’altra soluzione emersa è quella di introdurre pene severe per chi non rispetta l’obbligo di dichiarare apertamente i Deep Fake attraverso “filigrane digitali irremovibili” e descrizioni testuali presenti nei tag delle clip. Altri, invece, chiedono di intervenire allo stesso modo sui video originali, con una sorta di certificato di veridicità creato in automatico al momento della ripresa, che viene rimosso in caso di manomissioni.

Anche il mondo dell’informazione è sceso in campo: Reuters, in collaborazione con Facebook, sta lavorando ad un corso di 45 minuti pensato per dare ai giornalisti gli strumenti necessari per individuare foto, video e audio falsi ed evitarne così la pubblicazione e condivisione. Il materiale è disponibile in inglese, spagnolo, arabo e francese ma presto, grazie all’azienda di Mark Zuckerberg, potrebbe essere disponibile anche in altre lingue.

È proprio in questo clima di discussione accesa che Samsung ha presentato il suo nuovo prodotto Neon, alimentando il dibattito su analogie e differenze tra i due fenomeni e favorendo una serie di riflessioni in merito al futuro che ci attende.

Reale-virtuale: con Neon il confine è ancora più sottile

Il punto più evidente di analogia tra i due fenomeni è il fatto di aver assottigliato, e in alcuni casi oltrepassato, il confine tra reale e virtuale. Cosa succede quando si varca la linea che li divide? Che rapporto potremmo sviluppare con avatar così convincenti? I Deep Fake, come detto, sono registrati, mentre con i Neon vi è un’interazione in tempo reale: un rapporto diretto tra essere umano e tecnologia che cambia in modo sostanziale la prospettiva con cui analizzare il tema, che non riguarda più solo la sfera dell’informazione ma anche e soprattutto quella delle relazioni.

C’era una volta Eliza

La tendenza a umanizzare le macchine e ad attribuire loro un’intelligenza superiore a quella che realmente hanno non è certo una novità: si chiama “Effetto Eliza” ed è stato studiato a partire dal primo chatbot della storia, da cui prende il nome. Sviluppato nel 1966 nel laboratorio del Mit del professor Joseph Weizenbaum, l’algoritmo era in grado di conversare per iscritto con un umano, replicando (in chiave ironica) una seduta psicoterapeutica. Leggenda narra che la segretaria del professore, dopo aver testato Eliza, ignara del fatto che i testi erano tutti letti e passati in esame dal team al completo, si fosse arrabbiata con la sua “confidente artificiale” rea di aver rivelato i suoi segreti più intimi. Immaginate quanto possa amplificarsi l’Effetto Eliza nel momento in cui attribuiamo a una macchina anche un volto (magari a noi caro), una voce, movenze umane e addirittura emozioni? Se alcuni utilizzatori dei comuni assistenti virtuali preferiscono la compagnia della voce sintetica di Alexa a quella degli amici, abbiamo già molto su cui interrogarci.

Un problema (forse) del futuro, su cui riflettere nel presente

Neon ha fatto il suo debutto in pompa magna, catturando da subito l’attenzione del mondo. Slogan provocanti e tante promesse, che suggeriscono scenari futuri da film di fantascienza, ma per ora siamo lontani dall’avere un alter ego virtuale di un essere umano.
L’avatar è ancora un “neon-ato”: se ne intuiscono le possibilità, ma le capacità sono ancora estremamente limitate. Ad alcuni le loro espressioni sono parse fredde e i movimenti poco fluidi. L’arrivo del 5G potrebbe aiutare a velocizzare l’elaborazione delle informazioni, migliorandone le performance, ma la sensazione è che ci potrebbe volere ancora del tempo. E per fortuna. Ogni giorno, mese, anno che ci separano dal momento in cui il confine tra reale e virtuale sarà svanito diventano tempo prezioso per utili riflessioni su come utilizzare al meglio queste nuove straordinarie tecnologie.
Che impatti avranno? Chi ne gestirà i dati e come dovranno essere raccolti? Questi nuovi umanoidi dovrebbero avere dei “diritti” e delle responsabilità? Che sfide porranno alla nostra auto identificazione come persone ed esseri umani?

Alcune di queste domande oggi non hanno risposta e non siamo in grado di prevedere con certezza quali applicazioni e quali impatti porteranno queste tecnologie. Possiamo però iniziare a immaginare i futuri possibili, a partire dai segnali del presente: i Deep Fake, con i rischi legati a un loro utilizzo nel mondo dell’informazione, e gli assistenti virtuali, in particolare il rapporto che hanno instaurato con loro utenti, suggeriscono qualche indizio e ci mettono in guardia sulle conseguenze, per ora solo potenziali, di un uso scorretto di questa potentissima tecnologia.

Source: marketing

× How can I help you?