FACEBOOK RAFFORZA L’AI PER MODERARE I CONTENUTI

AI - Acronimo di intelligenza artificiale - facebook rafforza l'AI per moderare i contenuti - Web Agency Perugia - The Brick House

Facebook rafforza l’AI affidando al machine learning la responsabilità di gestire i contenuti da moderare o cosa inviare ai moderatori umani. Il Social Network ha quindi annunciato un suo ulteriore passo verso l’utilizzo dell’intelligenza artificiale. 

Come funziona ora l’attività di moderazione?

In questi ultimi mesi del 2020 abbiamo assistito a un’elevata attività di moderazione. I moderatori di Facebook hanno eliminato molti account sostenitori delle cospirazioni antisemite e bloccato tutte le inserzioni contrarie ai vaccini. Dato l’incremento dei post considerati pericolosi, l’intelligenza artificiale verrà in aiuto per facilitare e velocizzare il processo di moderazione.
Attualmente i post considerati spam sono contrassegnati dagli utenti o dai filtri automatici. I software ne gestiscono automaticamente una parte. I contenuti restanti rimangono in attesa per essere visionati dai circa 15.000 moderatori di Facebook in tutto il mondo. 

In che modo l’AI migliorerà l’attività di moderazione dei contenuti?

Ciò che cambierà è la modalità con cui viene stabilito l’ordine dei post da moderare. Attualmente i moderatori esaminano i contenuti basandosi sull’ordine cronologico di pubblicazione. Facebook però vuole assicurarsi che siano visualizzati prima i post più pericolosi. Ed è qua che interviene l’intelligenza artificiale. In futuro verranno integrati ulteriori algoritmi che stabiliranno l’ordine dei contenuti da esaminare in base alla gravità dei messaggi e alla probabilità che il post infranga le regole.
Facebook vuole quindi affrontare per primi i post più dannosi. Per questo motivo i post virali e quelli che possono creare danni reali gravi saranno considerati più importanti di altri. 

I post considerati più virali saranno, probabilmente, quelli con il numero di reazioni, visualizzazioni e condivisioni maggiori. La gravità, invece, si baserà sull’utilizzo di parole chiave tematiche come terrorismo, sfruttamento di minori o altro.
Sarà quindi un’analisi completa dei post: parole del contenuto, immagini o frame di video e altri fattori giudicati potenzialmente dannosi dall’AI.

Ovviamente, come spesso accade, potrebbero esserci bias negli algoritmi i quali potrebbero assegnare livelli di gravità non adeguati. Questo perché si tratta comunque di macchine, non in grado di giudicare il contesto di molte comunicazioni online, come sono invece in grado di fare gli esseri umani.

Fonte: https://bit.ly/3f3ipYK

Lascia un commento

Your email address will not be published.