Test leave-N-out test (come lo raccontiamo: (i) quante classi riesco a togliere? o (ii) quante classi al minimo mi servono)
Facciamo dei casi studio in cui mostriamo che se le prendi tutte vicine (ad esempio tutte le inpainting non funziona) mentre se prendiamo alcune rappresentative è estendibile!
Valutiamo se inserire anche altri dataset. Sullo scenario 1 abbiamo gli AInpainted su Facebook (e forse YouTube).
Test leave-oneFamilyOut : Escludiamo R2 e anche R1+R2 (eventualmente usando FORCKHEIM). Come lo facciamo sullo scenario 1? Usiamo i social/hardware based?
Classification metric: dati i k vicini ad un test, testiamo alcune metriche per vedere con che percentuale si classifica correttamente la famiglia e l'istanza (ad esempio nearest n, votazione, etc...) NO ADDESTRAMENTO!
Ranking?
Una volta che abbiamo tutti i componenti inseriamo gli elementi il dimostratore
Analisi a classi non disgiunte: cambiare l'impostazione del problema definendo
Insieme delle toolchain T. Partizioni T_1, T_n di classi disgiunte.
Esempio: T_1 partizione su base software
T_2 partizione su base algoritmo usato
T_3 utente ....
Addestramento unico congiunto. Per ogni esempio si considerano le proiezioni per cui si hanno informazioni.
In test per ciascuna proiezione calcolano i vicini e si valuta classe e affidabilità.
Visualizzazione in Radar Chart
inserire feature DCT e rieffettuare i test in dataset per scenario 1, se disponibile, altrimenti sui double sharing dello scenario 2.
Sviluppiamo qualche visualizzazione delle features da inserire nel dimostratore?