Un tribunale della California sta attualmente ospitando un processo che potrebbe rimodellare il panorama legale per le aziende tecnologiche. Per la prima volta negli Stati Uniti, una giuria sta valutando se il design stesso delle piattaforme di social media possa essere considerato un difetto del prodotto, non dovuto ai contenuti generati dagli utenti, ma a causa del modo in cui le piattaforme sono state intenzionalmente costruite.
Questo caso – K.G.M. v. Meta e Google – rappresenta un punto di svolta nel dibattito sulla responsabilità delle Big Tech, con il potenziale di creare un effetto domino tra le giurisdizioni di tutto il mondo. La querelante, una donna di 20 anni, sostiene che piattaforme come Instagram e YouTube abbiano deliberatamente progettato funzionalità di dipendenza che hanno alimentato la sua depressione, ansia, dismorfismo corporeo e pensieri suicidi. TikTok e Snapchat si sono accordati con lei prima del processo, lasciando Meta e Google come restanti imputati.
Il cambiamento giuridico fondamentale: il design come difetto
Per decenni, la Sezione 230 del Communications Decency Act ha ampiamente tutelato le aziende tecnologiche dalla responsabilità per i contenuti pubblicati dagli utenti. Tuttavia, questa causa aggira tale protezione inquadrando il danno non come derivante dai contenuti degli utenti, ma dalle scelte progettuali delle piattaforme: scorrimento infinito, raccomandazioni algoritmiche, ricompense imprevedibili e riproduzione automatica.
I ricorrenti sostengono che queste funzionalità operano secondo gli stessi principi comportamentali delle slot machine, sfruttando deliberatamente la psicologia umana. Questo approccio tratta la progettazione algoritmica come una decisione sul prodotto, soggetta agli stessi obblighi di sicurezza di qualsiasi altro bene prodotto. La Corte ha consentito che si procedesse con questa linea di ragionamento, una decisione storica con implicazioni di vasta portata.
Quello che sapevano le aziende: documenti interni sotto controllo
Un elemento critico del caso si basa su ciò che Meta e Google sapevano sui potenziali danni dei loro progetti. La fuga di notizie dei “Facebook Papers” del 2021 ha rivelato che gli stessi ricercatori delle aziende hanno segnalato preoccupazioni sugli effetti negativi di Instagram sull’immagine corporea e sulla salute mentale degli adolescenti. Secondo quanto riferito, le comunicazioni interne, ora presentate in tribunale, paragonano i meccanismi di dipendenza delle piattaforme allo spaccio di droga e al gioco d’azzardo.
Se la giuria ritenesse che le aziende erano consapevoli di questi rischi ma continuassero a dare priorità al coinvolgimento rispetto al benessere degli utenti, potrebbe stabilire una negligenza e aprire la strada a sanzioni finanziarie significative. L’avvocato principale dei querelanti, Mark Lanier, ha precedentemente ottenuto verdetti multimiliardari contro Johnson & Johnson, segnalando l’entità delle responsabilità ricercate.
La scienza dietro la dipendenza: complessa ma consequenziale
Mentre il dibattito scientifico sulla dipendenza dai social media rimane complesso, lo standard legale si concentra sulla prevedibilità. La questione non è se i social media danneggino tutti allo stesso modo, ma se i progettisti della piattaforma avessero il dovere di tenere conto dei rischi per i giovani utenti vulnerabili, soprattutto alla luce delle prove interne che suggeriscono che fossero consapevoli di tali rischi.
I ricercatori hanno scoperto che le scelte progettuali delle piattaforme possono esacerbare i problemi di salute mentale in alcune popolazioni. Se la giuria dovesse stabilire che Meta e Google non hanno prestato ragionevole attenzione nella progettazione dei loro prodotti, il caso potrebbe costituire un precedente per ritenere le società tecnologiche responsabili di danni prevedibili.
Le implicazioni più ampie: un panorama giuridico e politico in evoluzione
Anche se la scienza rimane instabile, il panorama giuridico e politico sta cambiando rapidamente. Solo nel 2025, 20 stati degli Stati Uniti hanno promulgato nuove leggi che regolano l’uso dei social media da parte dei bambini, e una legislazione simile sta guadagnando terreno a livello globale.
Il processo K.G.M. è più di un semplice caso; rappresenta un cambiamento fondamentale nel modo in cui viene vista la progettazione algoritmica. Se prendesse piede il quadro che prevede la responsabilità delle piattaforme per le loro scelte progettuali, ogni azienda tecnologica dovrà rivalutare non solo quali contenuti appaiono sulle loro piattaforme, ma anche perché e come vengono distribuiti.
Questa sperimentazione ha il potenziale per ridefinire il rapporto tra Big Tech e i suoi utenti, costringendo le aziende a dare priorità alla sicurezza e alla responsabilità rispetto all’impegno a tutti i costi.
