Questo articolo è stato letto414volte!
YouTube ha introdotto nuove linee guida per la gestione dei contenuti generati tramite intelligenza artificiale, in particolare i deepfake. Queste norme si dividono in due categorie principali: una più rigida, volta a tutelare i partner dell’industria musicale della piattaforma, e un’altra meno restrittiva, applicabile al resto degli utenti. L’azienda ha chiarito che i creatori dovranno etichettare i contenuti realistici AI che caricano, rendendo esplicito immediatamente che sono stati realizzati con l’intelligenza artificiale, soprattutto in contesti delicati come le elezioni o situazioni di conflitto attuali. Queste etichette saranno visibili nelle descrizioni dei video e direttamente sui video stessi, nel caso di materiale sensibile. La definizione di “realistico” da parte di YouTube non è ancora stata precisata. Tuttavia, il portavoce Jack Malon ha indicato che verranno fornite indicazioni più dettagliate, complete di esempi, quando questa politica entrerà in vigore l’anno prossimo. Le conseguenze per chi non etichetta correttamente i contenuti AI potrebbero variare, incluse la rimozione del video e la demonetizzazione. Resta incerto, però, come YouTube possa identificare con certezza i video generati da AI non etichettati, considerando che gli attuali strumenti di rilevamento sono ancora poco affidabili. La situazione si complica ulteriormente per i video che utilizzano deepfake per simulare persone reali, come nel caso della loro voce o del loro volto. YouTube permetterà le richieste di rimozione tramite un modulo esistente, ma valuterà diversi fattori, tra cui se il contenuto è una parodia o satira e se l’individuo è un personaggio pubblico. Inoltre, per i contenuti musicali generati da AI che imitano la voce cantata o parlata di un artista, non saranno ammesse eccezioni per parodia e satira. I canali che producono coperture AI di artisti vivi o deceduti potrebbero vedere i loro contenuti rimossi.