Una giuria di Los Angeles ha scritto la storia: per la prima volta al mondo, le piattaforme social sono state condannate per aver progettato prodotti che creano dipendenza. Con 6 milioni di dollari di risarcimento e oltre 2.400 cause in attesa, il momento Big Tobacco dei social media è arrivato.
La storia di Kaley
Kaley G.M. aveva sei anni la prima volta che aprì YouTube. Nove quando creò il suo profilo Instagram. Vent’ anni oggi, quando una giuria di dodici persone a Los Angeles l’ ha finalmente creduta.
Per anni, Kaley ha descritto la sua vita come divisa in due: prima e dopo i social. Prima: una bambina come tante. Dopo: ansia pervasiva, depressione profonda, dismorfismo corporeo, pensieri suicidari. Al culmine della sua dipendenza, trascorreva fino a 16 ore al giorno su Instagram — più di due terzi della sua giornata a fissare uno schermo, scorrere contenuti, confrontarsi con immagini ritoccate, aspettare notifiche.
“Era troppo difficile stare senza,” ha testimoniato in aula. Non una scelta. Una compulsione.
Il 25 marzo 2026, la giuria — sette donne e cinque uomini — ha deliberato: Meta e Google sono colpevoli di negligenza. Hanno creato prodotti con design difettosi che hanno causato dipendenza e danni psicologici gravi a una bambina. Meta è responsabile al 70%, Google al 30%. Il risarcimento totale ammonta a 6 milioni di dollari: 3 milioni in danni morali, 3 milioni in danni punitivi.
Macchine progettate per dipendere. Non è stato un incidente. È stato un progetto.
Questa è l’ accusa al cuore del processo. L’ avvocato di Kaley, Mark Lanier, lo ha detto senza giri di parole davanti alla giuria: “Queste aziende hanno costruito macchine progettate per dipendere il cervello dei bambini, e lo hanno fatto di proposito.”
LE FUNZIONALITÀ SOTTO ACCUSA
- Infinite scroll: eliminare il “fine naturale” della navigazione per eliminare il momento in cui l’ utente si ferma a riflettere se continuare.
- Algoritmi di raccomandazione: sistemi che imparano le vulnerabilità dell’ utente e le sfruttano per massimizzare il tempo di engagement.
- Notifiche push: progettate per creare un condizionamento pavloviano, il ping che riporta ossessivamente l’ utente alla piattaforma.
- Metriche di validazione sociale: (like, visualizzazioni) sistemi di ricompensa intermittente mutuati direttamente dalle slot machine.
Lanier ha citato come precedente le tecniche comportamentali e neurobiologiche usate dalle slot machine e dall’ industria del tabacco per massimizzare il coinvolgimento giovanile e moltiplicare i ricavi pubblicitari.
L’asso nella manica: i documenti interni
Il caso si è rivelato devastante soprattutto per le prove interne prodotte in tribunale.
Project Myst: uno studio interno di Meta che avrebbe dimostrato come i bambini che avevano già sperimentato “effetti avversi” fossero i più facili da agganciare alla dipendenza da Instagram. In altre parole: Meta sapeva che i ragazzi psicologicamente vulnerabili erano anche i più profittevoli da targetizzare. E continuò comunque.
“Nel momento in cui [Kaley] è rimasta intrappolata nella macchina, sua madre ne è stata esclusa” — Mark Lanier.
Un memo interno di YouTube descriveva la “dipendenza degli spettatori” (viewer addiction) come un obiettivo aziendale. Un dipendente di Instagram scrisse, in una comunicazione interna, che l’ azienda era composta da “basically pushers” — sostanzialmente spacciatori.
La giuria ha trovato che questa consapevolezza interna costituisce esattamente il tipo di conoscenza aziendale che fonda la responsabilità legale.
I protagonisti in aula
Mark Zuckerberg ha testimoniato di persona, uno step rarissimo per un CEO di questa statura. Si è scusato con Kaley e con le altre vittime. Ha ammesso che il sistema di verifica dell’età su Instagram — il filtro per i minori di 13 anni — non aveva funzionato. “Avrei voluto arrivarci prima,” ha detto.
Non è bastato.
La crisi della Sezione 230
Per decenni, le Big Tech si sono protette con uno scudo quasi invalicabile: la Sezione 230 del Communications Decency Act, una legge del 1996 che esenta le piattaforme dalla responsabilità per i contenuti generati dagli utenti.
L’ argomentazione di Meta e Google era classica: “Non siamo responsabili di ciò che i nostri utenti pubblicano.”
Ma il giudice ha tracciato una linea netta: il design della piattaforma non è un contenuto. Infinite scroll, algoritmi di raccomandazione, notifiche ossessive — queste sono scelte ingegneristiche deliberate dell’ azienda, non contenuti degli utenti. E quindi la Sezione 230 non si applica.
Questo ragionamento è rivoluzionario. Apre una breccia nel più potente scudo legale mai costruito nell’era digitale. Meta e Google faranno sicuramente appello proprio su questo punto — e le corti superiori dovranno pronunciarsi, creando potenzialmente un precedente vincolante per tutto il settore tech.
Il momento Big Tobacco
Chi conosce la storia dell’ industria del tabacco riconosce immediatamente lo schema.
Per decenni, le tobacco companies negarono pubblicamente che le sigarette creassero dipendenza o causassero cancro — pur avendo documenti interni che provavano il contrario. La svolta arrivò negli anni ‘ 90, quando quelle prove interne furono rese pubbliche nei processi. Il risultato: accordi miliardari, normative draconiane, cambiamento radicale del settore.
La strategia legale di Kaley è costruita sulla stessa ossatura. Dove c’è consapevolezza aziendale del danno, targeting deliberato dei soggetti più vulnerabili (i bambini), e negazione pubblica, c’è responsabilità. I giurati lo hanno capito.
“Per anni le aziende di social media hanno tratto profitto prendendo di mira i minori e nascondendo le caratteristiche di design che rendono le loro piattaforme pericolose. Il verdetto di oggi sancisce la loro responsabilità.” — Avvocati di Kaley G.M.
La valanga è solo all’inizio
Il caso di Kaley è tecnicamente un “bellwether” — un caso pilota usato dai tribunali per testare la risposta delle giurie e calibrare i potenziali risarcimenti nelle cause simili. I verdetti bellwether non hanno effetto diretto sulle altre cause, ma influenzano enormemente le negoziazioni di accordi.
E di cause ce ne sono tantissime:
- Oltre 2.400 cause federali consolidate in California che coinvolgono Meta, TikTok (ByteDance), Snap, Google.
- Migliaia di cause statali in tutto il paese.
- Cause di school districts che chiedono rimborsi per i costi della crisi di salute mentale degli studenti.
Cosa succede ora?
- MAGGIO 2026: In New Mexico, fase due del pocesso a Meta, il giudice decide se ordine delle moodifiche obbligatorie alle piattaforme
- GIUGNO 2026: Trial federale: uno school discrict del kentucky contro Meta
- LUGLIO 2026: nuovo trial con Instagram, YouTube e TikTok e Snap
Nota bene: TikTok e Snap avevano già pattegiato all’inizio del processo a cndizioni riservate, un segnale che le aziende sanno quanto sia pericoloso portare questi casi in tribunale.
Opinione: niente sarà come prima
i Social Media come li abbimao conosciuti potrebbero non sopravvivere a questa ondata legale nella loro forma attuale.
Non perché le aziende non possano permettersi i risarcimenti (Meta da sola vale oltre 1.500 miliardi di dollari). Ma perché la vera minaccia non è finanziaria: è sistemica. Se il design di una piattaforma può essere dichiarato un “prodotto difettoso”, ogni feature pensata per massimizzare l’engagement diventa una potenziale fonte di responsabilità legale.
Questo cambia tutto: come si progettano le piattaforme, come si fanno soldi con la pubblicità, come si gestisce la presenza dei minori online. È l’ inizio di una regolamentazione profonda del settore, guidata non dai legislatori (che si sono rivelati lenti e inefficaci) ma dai tribunali e dalle giurie popolari.
Kaley G.M. aveva sei anni quando ha incontrato l’ algoritmo. Ne ha venti adesso, e ha vinto. La domanda è: quanto cambierà davvero per i prossimi sei anni?





















Lascia un commento