L’arresto di Donald Trump e Boris Johnson e il Papa in piumino. Le immagini create con l’intelligenza artificiale sono quasi indistinguibili dalle foto reali. Ma con un occhio allenato, puoi fare molta strada.
Op sociale media kwam je hem de afgelopen week vaak tegen: een foto van paus Franciscus op straat. In een hippe witte pufferjas met daaroverheen een grote ketting en een zilveren kruis. In zijn rechterhand een koffie voor onderweg.
Op Twitter werd het plaatje twintig miljoen keer bekeken. Het sociale netwerk plaatste er later een label bij. Daarop staat dat de afbeelding niet echt is en werd gemaakt met de kunstgenerator Midjourney.
Dat programma kreeg recent een update, waarna hij veel realistischere plaatjes kan maken. Het leverde ook zogenaamde foto’s op van de arrestatie van de Amerikaanse oud-president Donald Trump en die van de voormalige Britse premier Boris Johnson.
Gli sviluppi artistici dell’IA sono in piena espansione
“Diventa sempre migliore e più avvincente”, afferma l’esperto di intelligenza artificiale Mark Evenblij di DuckDuckGoose. Questa è una società olandese che sta lavorando a modi per riconoscere i deepfake. “Gli sviluppi stanno andando molto velocemente, in sei mesi i risultati potrebbero essere molto migliori di adesso”.
Ciò rende più difficile rilevare immagini false. Ma per ora, ci sono alcuni problemi con cui il software lotta. Questi possono indicare che un’immagine è stata creata dall’intelligenza artificiale.
A volte è ovvio. “Occhiali che si dissolvono nel vuoto, non è possibile”, dice Evenblij. “Spesso anche i riflessi negli occhi sono una buona indicazione. Nei deepfake, i riflessi negli occhi sinistro e destro spesso differiscono. Se vedi questo, potrebbe indicare un’immagine falsa.”
Ma i riflessi anomali non sono ancora una prova definitiva. Potrebbe esserci solo una lampada riflessa in un occhio e non nell’altro. “Spesso è la somma delle deviazioni”, spiega l’esperto di IA.
Modelli di fusione e incomprensibili
“Puoi anche vederlo in modelli che si fondono insieme”, afferma Evenblij. “Un cappello che si fonde con i capelli o la pelle di un viso. I modelli AI hanno anche problemi con le lettere, il che significa che i testi sui vestiti, ad esempio, non sono corretti.”
Questo è visibile nelle foto dell’arresto di Trump e Johnson. Gibberish è scritto su vestiti e berretti. Anche il computer ha spesso problemi con le mani. Molte volte le persone hanno sei dita e talvolta la mano sbagliata è sul braccio sbagliato.
Questo accade, ad esempio, nell’immagine qui sotto. Sembra realistico, finché non ti rendi conto che il pollice è dalla parte sbagliata. Nella foto di Pope e Johnson arrestati, puoi anche dire dalle mani che è falso.
Video e suoni falsi
Anche i deepfake più realistici sono realizzati con video e audio. Ad esempio, ci sono programmi che ti consentono di sovrapporre tu stesso il volto di una celebrità. La faccia finta reagisce quindi ai tuoi movimenti senza indugio. Nelle videochiamate, le cose possono essere simulate in modo convincente in questo modo.
Ma se sai cosa cercare, potresti essere in grado di individuarlo. “Quando qualcuno sbatte le palpebre, spesso vedi che la faccia finta diventa leggermente più piccola per un momento”, dice Evenblij. “Ci sono anche limiti alla maschera. Se una persona gira troppo la testa, si verifica una distorsione. Quindi puoi chiedere a qualcuno di girare a sinistra ea destra.”
Se ci sono registrazioni di una voce, basta poco perché qualcuno dica cose che non ha mai detto.
Questi tipi di deepfake sono più difficili da segnalare. “Spesso puoi ancora sentirlo nell’intonazione, che semplicemente non è umana”, dice Evenblij. “Esiste anche un software in grado di rilevare se qualcosa esiste o meno. Migliore è la qualità del suono, maggiori sono le informazioni da verificare”.
Il rischio di frode è in agguato
Anche l’intelligenza artificiale garantisce sviluppi positivi. Ad esempio, può aiutare con la terapia del dolore e il trattamento dei traumi. Oppure può dare voce a persone che non possono parlare. Ma anche il pericolo è in agguato.
“È già possibile imitare una voce e telefonate false”, afferma Evenblij. “Negli Stati Uniti, abbiamo già visto esempi di deepfake vocali iperrealistici per commettere frodi. Un criminale può fingere di essere il nipote di una nonna e chiamarlo dicendo che ha bisogno di soldi in fretta. Le persone guadagneranno un sacco di soldi con questa roba . Perderanno.”
I governi stanno lavorando a regolamenti per dirigere in sicurezza lo sviluppo dell’intelligenza artificiale. Ma anche le organizzazioni e le imprese stesse dovrebbero pensare all’uso etico dell’intelligenza artificiale, afferma Evenblij. “Non andrà via, quindi dobbiamo trovare il modo di affrontarlo”.
“Appassionato di Twitter. Pioniere dei viaggi. Appassionato di Internet. Studioso dilettante di pancetta. Lettore. Praticante di birra.”
You may also like
-
Estetica funzionale: L’integrazione dei pulsanti nelle soluzioni energetiche
-
Comprendere il comportamento degli animali domestici: suggerimenti per interpretare il linguaggio del corpo del tuo cane o gatto
-
Gli enti di beneficenza nel settore alimentare stanno cambiando il mondo cucinando per una causa
-
Confronto tra la friggitrice ad aria e la frittura convenzionale: rivelati i vantaggi per la salute
-
Vantaggi per i possessori di abbonamenti: ottimizzazione dei vantaggi per eventi, atletica e altro