Face2Face

Face2Face è un approccio per la modifica dell’espressione facciale in tempo reale che trasferisce le espressioni di un video sorgente ad una destinazione video, mantenendo l’identità della persona target. Sia la sequenza video sorgente che quella destinazione possono essere riprese da webcam comuni.

Per affrontare l’approccio Face2Face, ci siamo rifatti allo studio – del team universitario di cui all’introduzione – presentato al SIGGRAPH Emerging Technologies 2016, dove ha vinto il primo premio in “Show Award”[1].

Il metodo utilizzato è risultato molto convincente nel trasferimento delle espressioni facciali da una sorgente a un video di destinazione in tempo reale. Il lavoro mostra risultati con un’impostazione live (il primo metodo di riproduzione delle espressioni facciali RGB in tempo reale), in cui il flusso video sorgente viene acquisito da una webcam e utilizzato per manipolare un video Youtube di destinazione.

 

[1] Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. To copy otherwise, to republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee.

Deep Fake composition image

Le espressioni facciali trasferite nel video target sono quelle di un attore usato come sorgente (catturate tramite un sensore RGB), il video di output viene ricalcolato e manipolato in modo fotorealistico. Per prima cosa è necessario recuperare l’identità facciale dal video mediante raggruppamento non rigido basato su un modello 3D.

L’approccio usato prevede che in una fase di preelaborazione venga analizzato e ricostruito il volto dell’attore target.

Durante la riproduzione dal vivo, si segue l’espressione dell’attore di origine e la trasferiamo sulla faccia target ricostruita.

Infine, si compone un’immagine inedita della persona target usando l’interno della bocca della sequenza destinazione che corrisponde meglio alla nuova espressione.

Monitorando le espressioni facciali del video sorgente e di destinazione si ottiene la riproduzione delle espressioni mediante trasferimento rapido di deformazione tra sorgente e target.

Infine, si rielabora la faccia di destinazione sintetizzata sopra il flusso video corrispondente in modo da fondere perfettamente con l’illuminazione del mondo reale.

Considerazioni

Un problema rilevato su tutti gli approcci relativi al metodo Face2Face riguarda l’illuminazione dell’ambiente circonstante, che se non resa il più possibile simile al video target, può essere limitante e portare ad artefatti soprattutto in presenza di ombre o riflessi. Risulta essere ancora più problematica la situazione di soggetto target con capelli lunghi e barba.

Un primo lavoro (¹):
per capire come funzionano i deepfake

DeepFake: le origini

1. Impersonification: cybersecurity e Identity Protection
1.1 Identità
1.2 Credenziali
1.3 Impersonificazione
1.4 Considerazioni su come proteggersi

2. Deep Fake e deep learning
2.1 Le reti neurali
2.2 Gli autoencoder
2.3 L’addestramento

3. Individuazione e analisi delle tecniche per la generazione di immagini e video fake
3.1 DeepFakes
3.2 Neural Textures
3.3 Face2Face
3.4 FaceSwap

Considerazioni Finali

Bibliografia

(¹) Questo lavoro è stato realizzato durante il corso di laurea triennale in Ingegneria Informatica come tesi in “Sicurezza delle reti e Cyber Security” presso l’UNIVERSITAS MERCATORUM (ROMA). A cura di Luca Murgianu, relatore il Prof. Roberto Caldelli.

Un approfondimento (²):
per imparare a distinguere il vero dal falso

1. MultiMedia Forensics

2. Il fenomeno DeepFake

3 Le tipologie di manipolazione

3.1 Pixel-based

3.2 Format-based

3.3 Camera-based

3.4 Physically-based

3.5 Geometric-based

4 Tecniche di videofake detection

5 Cosa dice il Garante della Privacy italiano

5.1 Il falso che ti ruba la faccia e la privacy

Considerazioni Finali

Bibliografia

(²) Questo lavoro è stato realizzato durante il corso post-laurea in “CRIMINALITA’ INFORMATICA E INVESTGAZIONI DIGITALI” tenutosi presso l’UNIVERSITA’ DEGLI STUDI DI MILANO (LA STATALE). A cura di Luca Murgianu, coordinatore il Prof. Giovanni Ziccardi.