Riferimenti:
Riferimenti:
TBD
una volta che il codice analisi contenuto video è pronto generare gli xml su tanti dataset e far vedere che su uno funziona per pubblicazione.
Idea paper (RED): abbiamo a disposizione tanti dataset di varie manipolazioni. Abbiamo a disposizione i feature extractor per le manipolazioni (ognuno che funzioni almeno su un tipo di manipolazione...eventualmente da fondere anche perché potrebbero lavorare su domini diversi). Facciamo vedere che il metodo è migliore di una rete siamese semplice. Con una classe nuova la rete siamese si perde. Viceversa, usando l'autoencoder si distinguono le classi ma non si possono valutare le distanze e quindi si perde sulle classi sconosciute.
Ci servirebbe una matrice dataset/features dove si riportano le features discriminanti sui vari dataset. Sentire Chiara per sviluppare nel medio termine le features dei tesisti e di testarle sui vari dataset (per riempire la matrice). POSSIBILE IDEA: classi non disgiunte e radar chart per identificare le classi compatibili
scaricare video da diversi canali YouTube e vedere se si discriminano con le features sul contenuto;
articoletto su SPL per discriminazione di video doppiamente compressi...finiamo dicendo: "Ma guarda un po' come sono utili queste poche informazioni...se solo qualcuno ne trovasse altre"
tool per velocità relative e posizione di oggetti mobili senza riferimenti
signature costruita su spettrogramma audio
watermarking no box
data hiding con Visual Transformers
fusione con cross-attention -> Simone Magistri
fogery detection su audio (jukebox, common voices)
stable diffusion per generare falsi da FloreVision e poi test con detector di falsi
localizzazione di manipolazione con contrastive learning
funzione di loss controllata per watermarking