Non è la prima volta che i big delle tecnologie devono comparire davanti al Congresso degli Stati Uniti ma l’udienza di due giorni fa è passata più in sordina rispetto a quelle precedenti

Mark Zuckerberg, Jack Dorsey e Sundar Pichai, leader rispettivamente di Facebook, Twitter e Google hanno dovuto rispondere alle domande dei legislatori sulla possibile connessione tra il fenomeno della disinformazione online e i gravi fatti avvenuti lo scorso 6 gennaio, quando una folla di sostenitori di Trump ha invaso il Campidoglio.
L’udienza è durata ben cinque ore e ha cercato di mettere in luce il ruolo che le piattaforme online hanno avuto nella diffusione delle notizie false sul Covid-19 e del razzismo. Inoltre, si è discusso anche di come i social network possano avere un’influenza negativa sulla salute mentale dei bambini.

Per la prima volta il leader di Twitter Jack Dorsey ha ammesso che la sua piattaforma ha sicuramente avuto un ruolo negli eventi che hanno poi portato all’assalto del Campidoglio e quindi nella morte di 5 persone. Ha poi aggiunto però che è necessario “prendere in considerazione l’ecosistema più ampio” e che “non si tratta solo delle piattaforme tecnologiche che utilizziamo”. Zuckerberg e Pichai invece hanno dato risposte più elusive, evitando di ammettere le proprie responsabilità. Una mancanza che ha lasciato perplesso Dorsey, che ha chiesto ai colleghi come fosse possibile per loro negare che hanno offerto uno strumento che ha facilitato il reclutamento e la pianificazione dell’attacco del 6 gennaio.

Nonostante le preoccupazioni e le ormai frequenti visiti dei big dei social al Congresso americano, la regolamentazione dell’attività delle piattaforme online rimane un terreno poco esplorato. L’amministratrice del Center for Democracy and Technology, Alexandra Givens ha affermato infatti che “Sarà molto difficile tradurre queste preoccupazioni in legislazione”.

L’obiettivo primario delle piattaforme social è quello di fornire dei contenuti accattivanti ai loro utenti, facendo così trascorrere loro più tempo possibile online e dunque aumentando le probabilità che qualcuno di loro clicchi sugli annunci pubblicitari, fonte primaria di guadagno per società di questo tipo. Il problema principale è che spesso i contenuti che tengono online gli utenti sono quelli estremi, falsi o carichi d’odio che non vengono filtrati dagli scarsi sistemi di moderazione previsti dalle regole. Nel corso dell’udienza, Zuckerberg ha suggerito che una soluzione potrebbe essere quella di apportare modifiche alla cosiddetta Sezione 230 del Communications Decency Act, una legge che protegge e deresponsabilizza le piattaforme rispetto ai contenuti che vi vengono caricati. “Credo che la Section 230 trarrebbe vantaggio da modifiche ponderate per farla funzionare meglio per le persone” ha affermano il leader di Facebook.