Un paradosso sempre più evidente attraversa l’industria digitale: i protagonisti che hanno costruito le piattaforme più pervasive della vita quotidiana tendono a limitarne l’uso all’interno delle proprie famiglie. Il fenomeno non è recente e affonda le radici già nei primi anni dell’era mobile, quando nel 2010 Steve Jobs dichiarò al New York Times di non consentire ai figli l’uso dell’iPad.
Da allora, con la diffusione capillare di smartphone e social media, il tempo trascorso davanti agli schermi tra i minori è cresciuto fino a livelli mai registrati prima. Negli USA, secondo l’American Academy of Child and Adolescent Psychiatry, i ragazzi tra gli 8 e i 18 anni trascorrono mediamente oltre 7,5 ore al giorno davanti a dispositivi digitali, una soglia che solleva interrogativi clinici, educativi e sociali.
Leader tecnologici e restrizioni domestiche
Le dichiarazioni pubbliche dei dirigenti della Silicon Valley delineano una strategia familiare sorprendentemente prudente. Steve Chen, cofondatore di YouTube, ha spiegato in un intervento alla Stanford Graduate School of Business che preferisce evitare per i propri figli il consumo esclusivo di contenuti brevi, sostenendo che la diffusione di video sotto i 15 minuti contribuisce alla riduzione dell’attenzione.
L’osservazione si inserisce nel contesto dell’esplosione del formato short video, caratterizzato da cicli di consumo rapidi e da una progettazione basata su algoritmi di raccomandazione che privilegiano l’ingaggio immediato.
Peter Thiel, fondatore di PayPal e investitore iniziale di Facebook, è sulla stessa lunghezza d’onda dichiarando di consentire ai propri figli non più di 90 minuti di utilizzo degli schermi a settimana.
Anche Bill Gates ha adottato un approccio restrittivo, ritardando l’introduzione degli smartphone fino ai 14 anni e vietando i dispositivi a tavola. Evan Spiegel, CEO di Snap, ha riferito limiti temporali simili a quelli di Thiel, mentre Elon Musk ha ammesso che l’assenza di regole sull’uso dei social per i figli potrebbe essere stata un errore.
Video brevi e impatti cognitivi documentati
Il dibattito sull’uso delle piattaforme digitali da parte dei minori si concentra oggi su specifiche modalità di fruizione.
Il formato dei video brevi, spesso inferiore ai 60 secondi, sfrutta meccanismi di rinforzo variabile tipici delle interfacce progettate per trattenere l’utente. Studi pubblicati nel 2025 su campioni di quasi 100.000 individui hanno individuato una correlazione costante tra consumo di contenuti brevi e peggioramento di diversi indicatori cognitivi, tra cui memoria di lavoro, capacità di concentrazione e regolazione emotiva. Tali effetti sono osservati sia nei giovani che negli adulti, suggerendo un impatto sistemico legato alla struttura stessa dei flussi informativi.
La relazione tra durata dei contenuti e capacità di attenzione è coerente con ricerche precedenti in psicologia cognitiva, che indicano come stimoli rapidi e ripetitivi possano condizionare i tempi di elaborazione e la soglia di stimolazione necessaria per mantenere l’interesse.
Le impostazioni di sicurezza e i limiti dei social
Le aziende tecnologiche hanno introdotto negli anni una serie di strumenti per mitigare i rischi legati all’uso da parte dei minori.
TikTok, ad esempio, prevede una modalità dedicata agli under 13 con contenuti selezionati, assenza di pubblicità e impossibilità di pubblicare o interagire direttamente. Il CEO Shou Zi Chew ha dichiarato che, in presenza di tali protezioni, anche un bambino di 8 anni potrebbe utilizzare la piattaforma in sicurezza.
Analogamente, Instagram ha implementato limiti sulla visibilità dei contenuti per adulti e sistemi di notifiche silenziate nelle ore notturne per ridurre l’impatto sulla qualità del sonno.
Nonostante queste misure, le criticità restano legate alla progettazione delle interfacce e al funzionamento dei sistemi di suggerimento automatico, che possono amplificare contenuti sensibili o polarizzanti anche all’interno di ambienti teoricamente protetti.
La Commissione Europea ha avviato di recente un’iniziativa volta proprio a rimuovere lo scroll infinito sulle piattaforme social identificate come VLOP (Very Large Online Platforms). L’obiettivo è intervenire sul design delle piattaforme digitali per ridurre i meccanismi che favoriscono uso compulsivo e dipendenza, soprattutto tra i minori. In base al Digital Services Act (DSA), Bruxelles vuole imporre modifiche tecniche alle interfacce per tutelare la salute degli utenti e limitare modelli di engagement ritenuti dannosi.
Limiti privati, modelli pubblici e responsabilità delle piattaforme
Le scelte private dei dirigenti tecnologici evidenziano una tensione tra gli interessi economici delle piattaforme e la gestione domestica dell’esposizione digitale.
I modelli di business basati sulla monetizzazione dell’attenzione richiedono livelli elevati di permanenza e interazione, mentre le stesse figure che guidano tali modelli adottano strategie restrittive per i propri figli.
La divergenza tra pratica privata e offerta pubblica riflette la consapevolezza interna delle dinamiche di engagement e dei loro effetti a lungo termine. L’evoluzione normativa e le ricerche scientifiche in corso stanno progressivamente traducendo tale consapevolezza in linee guida e limiti sempre più stringenti, destinati a ridefinire il rapporto tra minori e tecnologie digitali.
I sistemi di blocco e la verifica dell’età (ormai sempre più in voga in tanti Paesi) potrebbero, a prima vista, rappresentare un primo livello di tutela, ma non affrontano la radice del problema.
Le tecniche di age verification sono spesso aggirabili e introducono criticità sul piano della protezione dei dati, mentre i filtri di accesso non incidono sui meccanismi di progettazione che incentivano l’uso prolungato.
L’attenzione dovrebbe spostarsi verso la design accountability, ovvero l’obbligo per le piattaforme di intervenire su feed, notifiche e sistemi di raccomandazione per ridurre l’over-engagement, insieme, soprattutto, all’introduzione di programmi di educazione digitale strutturati. Solo combinando interventi tecnici sull’architettura dei servizi, trasparenza sugli algoritmi e formazione degli utenti più giovani si può ridurre in modo concreto l’esposizione a dinamiche dannose.