Varför Big Tech måste hållas ansvariga för att minska sociala medier-beroende hos barn

Ozan Ahmet Cetin – TRT World

 

Big Tech

 

En ny våg av rättsfall som rör sig genom amerikanska domstolar utmanar den långvariga rättsliga sköld som har skyddat stora sociala mediaföretag från ansvar.

Istället för att fokusera på skadligt användargenererat innehåll riktar sig dessa stämningar mot själva plattformarnas design.

Käranden, inklusive enskilda familjer och statsåklagare, hävdar att företag som Meta och Google avsiktligt konstruerade funktioner som oändlig scrollning, algoritmiska rekommendationer, autoplay och push-meddelanden för att maximera engagemanget, med vetskapen om att barn är särskilt sårbara för tvångsmässigt bruk.

I Kalifornien hävdar en noggrant bevakad rättegång att Instagrams och YouTubes arkitektur bidrog till allvarliga psykiska skador hos en minderårig. I New Mexico anklagar statstjänstemän Meta för att felaktigt framställa säkerheten på sina plattformar i förhållande till risker för utnyttjande av barn.

Det som gör denna våg unik är dess rättsliga strategi. I stället för att be domstolarna att övervaka yttranden åberopar kärandena produktansvar, vårdslöshet och konsumentskyddsteorier.

De menar att plattformar inte är passiva kanaler utan noggrant utformade uppmärksamhetssystem, och att när dessa system förutsebart skadar minderåriga, bör företag hållas ansvariga ungefär som tillverkare i andra branscher.

Resultaten kan omforma hur amerikansk lag behandlar digitala plattformar, vilket begränsar den praktiska räckvidden av avsnitt 230 och skapar nya förväntningar kring designansvar, ungdomsskydd och företagens transparens.

I mer än ett decennium har sociala mediaföretag beskrivit sig själva som neutrala plattformar, öppna ytor där användare ansluter, skapar och delar.

Den inramningen är nu under direkt rättslig attack i amerikanska rättssalar, där en ny våg av stämningar ber domare och juryer att se dessa företag inte som passiva värdar, utan som tillverkare av produkter som avsiktligt konstruerats för tvång.

Det som står på spel är mer än ekonomiskt ansvar. Dessa rättegångar kan omdefiniera hur lagen förstår digitala plattformar och om företag som utformar uppmärksamhetsmaximerande system för barn kan hållas ansvariga när dessa system orsakar skada.

I Los Angeles påstås ett noggrant bevakat fall, inlett av en ung kvinna, identifierad i reportagen som Kaley GM, att Metas Instagram och Googles YouTube utformades för att hålla minderåriga fast genom funktioner som oändlig scrollning, algoritmiska rekommendationer och snabba feedback-loopar.

Kärandens argument går utöver förekomsten av skadligt innehåll på plattformen. Det är att själva arkitekturen byggdes för att upprätthålla engagemang på sätt som förutsägbart påverkar barns mentala hälsa.

TikTok och Snap nådde en förlikning inför rättegången, vilket lämnade Meta och Google att försvara sina designbeslut inför en jury.

Företagen avvisar påståendet att deras produkter är ”beroendeframkallande” i klinisk mening och menar att ungdomars mentala hälsa formas av en komplex blandning av sociala och personliga faktorer.

De hävdar också att de tillhandahåller säkerhetsverktyg och föräldrakontroller.

 

Ingenjörsmässig tvång

Den juridiska strategi som framträder i dessa fall signalerar ett skifte bort från den långa skuggan av avsnitt 230, den amerikanska lag som har skyddat plattformar från ansvar för användargenererat innehåll.

Istället för att argumentera för att plattformar bör vara ansvariga för vad användare publicerar, fokuserar kärandena på hur plattformarna är byggda. Denna distinktion är avgörande.

Produktansvarslagstiftningen har länge erkänt att tillverkare måste ta hänsyn till förutsebara risker, särskilt när det gäller sårbara användare. En biltillverkare kan inte undvika ansvar för ett designfel genom att argumentera för att förare ibland gör dåliga val.

Ett leksaksföretag kan inte ignorera en kvävningsrisk eftersom föräldrar bör övervaka barn noggrannare. Frågan är om själva designen skapar orimlig risk och om säkrare alternativ var genomförbara.

Att tillämpa det ramverket på sociala medier förändrar samtalet.

Plattformar är inte bara värd för innehåll. De rangordnar det, rekommenderar det och levererar det genom gränssnitt som är utformade för att minimera friktion och maximera tiden. Oändlig rullning tar bort naturliga stopp punkter.

Algoritmiska flöden lär sig vad som framkallar känslomässiga reaktioner och serverar mer av dem. Aviseringar är kalibrerade för att återengagera användare i sårbara ögonblick. Dessa funktioner är inte tillfälliga. De är produkten.

 

Företags tidigare kunskap om skada

Kärandena i Kalifornienfallet hävdar att företag visste att unga användare var särskilt mottagliga för sådana belöningssystem. Rapporteringen har hänvisat till intern forskning som undersöker tonåringars beteende och engagemangsmönster.

Om företag hade bevis för att vissa designval intensifierade tvångsmässig användning bland minderåriga, blir den juridiska frågan skarpare: vidtogs rimliga åtgärder för att mildra förutsebar skada?

Meta och Google invänder att vetenskapen kring ”beroende” är oklar och att korrelation inte är lika med orsakssamband.

De hävdar att depression, ångest och självskadebeteende bland tonåringar föregår sociala medier och härrör från flera influenser, inklusive familj, skolgång och bredare sociala påtryckningar.

Det försvaret har intuitiv dragningskraft. Men produktansvar kräver inte en enda orsak. Det kräver ett väsentligt bidrag till risken.

Domstolar fördelar rutinmässigt ansvar där flera faktorer kombineras för att orsaka skada.

Om en design avsevärt ökar sannolikheten för skada kan det vara tillräckligt. Den juridiska utredningen handlar inte om huruvida sociala medier ensamma förklarar en psykisk kris, utan om företagens designbeslut förutsägbart förstärker skadorna på minderåriga.

Ett parallellt fall i New Mexico skärper denna ansvarsskyldighetslins. Där anklagar statliga tjänstemän Meta för att felaktigt framställa säkerheten på sina plattformar i relation till risker för sexuell exploatering av barn.

Påståendet är inte bara att ondskefulla aktörer existerar online, utan att företaget överdrivit effektiviteten i sina skydd och undanhållit information om kända faror.

 

Reglering-innovation-dilemma

Tillsammans tyder dessa fall på en bredare omkalibrering av hur digital skada förstås.

I åratal har Big Tech hävdat att internet är för dynamiskt och komplext för att regleras genom traditionella ansvarsdoktriner. Domstolar varnades för att hålla plattformar ansvariga skulle hämma innovation och undergräva yttrandefriheten.

Ändå syftar dessa stämningar inte till att kontrollera yttranden. De frågar sig om själva engagemangsarkitekturen kan vara bristfällig.

Det är här debatten blir mer än teknisk. Den blir strukturell. Affärsmodellen för stora sociala medieplattformar är beroende av att maximera uppmärksamheten.

Mer tid som spenderas leder till mer data, fler annonsvisningar och mer intäkter. I det sammanhanget är designfunktioner som fördjupar engagemanget inte tillfälliga biprodukter. De är centrala för företagens tillväxtstrategier.

Om engagemang driver vinst och minderåriga utgör en betydande andel av användarbaserna, är incitamenten för att fånga och behålla ungdomlig uppmärksamhet kraftfulla.

Det är just därför produktansvarslagstiftning finns: för att motverka marknadsincitament när de strider mot säkerhet.

Branschen insisterar på att den har infört skyddsåtgärder, inklusive påminnelser om skärmtid, verktyg för innehållsmoderering och tonårsspecifika inställningar.

Men kritiker menar att dessa åtgärder ofta fungerar som sekundära funktioner som läggs till system som fortfarande är optimerade för fördjupning.

Om kärnarkitekturen prioriterar oändlig konsumtion, kan valfria säkerhetsinställningar meningsfullt kompensera för den designlogiken?

Svaret kommer sannolikt att bero på vad juryerna bedömer interna dokument och vittnesmål från chefer. I uppmärksammade företagsansvarsärenden tidigare, från tobak till bil fel, spelade intern kommunikation en avgörande roll för att forma allmänhetens uppfattning.

Om bevis visar medvetenhet om risk utan proportionell begränsning, kan konsekvenserna för anseendet sträcka sig långt bortom en enda dom.

 

En internationell våg

Det vore dock ett misstag att se dessa rättegångar enbart genom en amerikansk lins. De frågor de väcker resonerar globalt.

I hela Europa skärper tillsynsmyndigheter redan reglerna kring onlinesäkerhet och algoritmisk transparens. I Storbritannien ålägger Online Safety Act plattformar vårdplikt för att skydda barn från skadligt innehåll.

I Europeiska unionen inför lagen om digitala tjänster nya skyldigheter kring riskbedömning och riskreducering.

Från och med december 2025 är personer under 16 år förbjudna att använda sociala medier, vilket ska upprätthållas av sociala medieplattformar. Liknande åtgärder pågår även i Turkiet.

De amerikanska fallen skiljer sig åt i form men inte i sak. De återspeglar en växande frustration över en digital ekonomi som behandlar uppmärksamhet som en utvinningsbar resurs, även när resursen tillhör barn.

Om kärandena lyckas kan konsekvenserna omforma designnormer. Plattformar kan utsättas för press att införa friktion som standard för minderåriga, begränsa algoritmisk intensitet, minska aviseringsmönster sent på kvällen och ge tydligare varningar om risker.

Domstolar kan signalera att när företag har detaljerad kunskap om användarbeteende bär de motsvarande ansvar.

Om företagen vinner kommer de sannolikt att framställa domen som en bekräftelse på att domstolarna är dåligt rustade att avgöra komplexa sociala frågor. Debatten skulle sedan återgå till lagstiftande församlingar och tillsynsmyndigheter.

Hur som helst verkar eran med obestridlig plattformsimmunitet vara på väg att blekna.

Det som dessa rättegångar i slutändan utmanar är en grundläggande berättelse om den digitala tidsåldern att teknikföretag bara är kanaler, och att användarna ensamma bär ansvaret för sina val.

Kärandena hävdar en annan historia. De menar att beteendeteknik i stor skala inte är neutral, särskilt när den används på utvecklande sinnen.

Barn är inte bara mindre vuxna som navigerar på en marknad av idéer.

Neurovetenskap visar att ungdomar är särskilt känsliga för social validering och belöningsmekanismer. Att utforma system som utnyttjar dessa känsligheter, samtidigt som man hävdar neutralitet, är en ståndpunkt som blir allt svårare att försvara.

Den bredare lärdomen är inte att sociala medier bör avvecklas. Digitala plattformar har underlättat kontakter, kreativitet och politisk mobilisering över hela världen. Men innovation befriar inte företag från de vanliga skyldigheter som styr andra branscher.

Om en produkt är konstruerad på sätt som förutsebart äventyrar dess yngsta användare, har samhället länge insisterat på att tillverkaren ska hållas ansvarig.

Rättssalsstriderna som utspelar sig i Kalifornien och New Mexico är därför inte abstrakta skärmytslingar om juridisk doktrin. De är det senaste kapitlet i en lång kamp för att anpassa företagsmakt till allmän välfärd.

För Big Tech är budskapet att designen av din produkt är ditt ansvar.

För lagstiftare och tillsynsmyndigheter världen över kan budskapet vara ännu tydligare. Den digitala exceptionalitetens tidsålder, där plattformar står utanför traditionella ansvarsramverk, närmar sig sitt slut.

 

 

Original text: Why Big Tech must be held accountable to curb social media addiction in children