Ikke-medlemmer kan læse en version, der er offentliggjort på Quartz her.

Dataudnyttelse, der påvirker millioner, valg af hacking, aviseres død, våbenpropaganda, troldhær, uddybning af polarisering og selve den skæve fremtid for demokratiet. Det ser ud til, at vi dagligt får præsenteret en vasketøjsliste over dystopiske konsekvenser, der er knyttet til vores kollektive overforbrug af sociale medier.

Folk græder om forandring, men der mangler en del af samtalen: på trods af den voksende bevidsthed om mange af de forfærdelige bivirkninger af disse platforme, er vi afhængige af dem.

De er blevet vores lokale nyhedskanaler, vores nødkommunikationssystemer, vores bypladser og de primære vinduer i vores kære og regerings liv. De er en kritisk del af, hvordan vi samles omkring fælles årsager og engagerer os i vores politik.

Hvordan forener vi deres toksicitet med deres anvendelighed?

Dette burde ikke være et så smertefuldt valg. I løbet af det sidste år har jeg talt med akademikere, designere og teknologer, der studerer de vigtigste mangler ved disse platforme - og katalogiserer testbare rettelser. Min indsats har fokuseret på de indlejrede problemer med polarisering, dehumanisering og skandal, tre af de farligste biprodukter af disse værktøjer.

Nedenfor undersøger jeg hvad der kan ændres af disse virksomheder nu - ikke i morgen - for at gøre disse platforme bedre for menneskeheden.

Det, der er godt til at fange menneskelig opmærksomhed, er ofte dårligt for mennesker

Vores feeds kan gøre os vrede af en grund.

Forestil dig, at du går ned ad gaden, og du hører en kamp bryde ud. Det er højt og aggressivt, og folk råber om noget. Du stopper sandsynligvis et øjeblik for at se, hvad der foregår - det er i din natur.

Hvis du personligt kender en af ​​de mennesker, der kæmper, vil du sandsynligvis straks vælge en side - du kan endda blive involveret. Som minimum skal du være opmærksom.

Dette er, hvad sociale medier gør os regelmæssigt: det opfordrer os til at observere konflikter og vælge sider om emner, som vi ellers ville have få meninger om.

I sin kerne er det en maskin, der betjener en mening. Og på sociale medier serveres ikke alle meninger ens.

De fleste af vores indholdsfeeds og tidslinjer sorteres ikke længere kronologisk. Beslutningen om, hvilket indhold vi skal vise, er i stedet baseret på, hvor sandsynligt vi er for at engagere sig i det.

Instagram, Facebook, Twitter, Youtube og andre er flyttet væk fra kronologisk sortering for at hjælpe brugerne med at bearbejde mere information og for at holde dem på stedet

Følelsesmæssige reaktioner som forargelse er stærke indikatorer for engagement. Med den mest basale algoritme, der sorterer vores feeds, vises denne slags splittende indhold først, fordi den fanger større opmærksomhed end andre typer indhold.

En hypotetisk distribution baseret på interviews med platformingeniører

Dette indhold fungerer som en trigger til vores egne følelsesmæssige reaktioner. Og når vi reagerer, skubber vi jævnligt vores følelser ud til resten af ​​verden.

Dette er en forenklet model for, hvordan vi deler på sociale medier:

Midttrin hoppet over, når brugerne blot gentweet eller deler indhold

Med vredt indhold har dette muliggjort det, som vi måske kalder forargekaskader - virale eksplosioner af moralsk dømmekraft og afsky. Disse er kommet til at dominere vores feeds og vores samtaler og er ved at blive en fremtrædende del af den kulturelle zeitgeist.

Uro-triggere deles ofte, udløser andre og skaber forargelse-kaskader.

Moralsk forargelse = viralitet

William J. Brady, en forsker ved NYU, fandt for nylig et mønster i virale sociale mediaposter. Han studerede et massivt datasæt på hundreder af tusinder af tweets og fandt, at indlæg, der bruger moralsk og følelsesmæssigt sprog, får 20% boost for hvert moralsk og følelsesmæssigt nøgleord, der bruges.

Konservativt eksempel Tweet:
”Gay-ægteskab er en diabolisk, ond løgn, der sigter mod at ødelægge vores nation”
- @ overpasses4america
Liberalt eksempel Tweet:
”Ny mormon-politik forbyder børn af forældre af samme køn - denne kirke ønsker at straffe børn? Laver du sjov med mig?!? Skam"
- @ Martina

Hver af disse tweets indeholder sprog, der er moralsk ladet, og fordømmelse af andre. De tilskynder til en dyb følelsesmæssig reaktion og er mere tilbøjelige til at blive set og delt af mennesker, der er enige med dem, hvilket giver et målbart løft til viralitet og engagement.

Dette er et skjult underlag, hvor folk kan dele splittende, skandaløst og følelsesmæssigt indhold online.

Dette gælder ikke kun for vores personlige indlæg. Det gælder sandsynligvis alt indhold, vi deler på sociale medier - kommentarer, memes, videoer, artikler. Det har inkuberet et økosystem med moralsk forargelse, der bruges af indholdsskabere overalt, inklusive nyhedsorganisationer, simpelthen fordi det fungerer.

Facebook, Twitter, YouTube og andre prioriterer denne type indhold, fordi det er det, vi klikker på, svæver over og reagerer på. Det er den skjulte sti til publikums engagement. Når vi prøver at fange opmærksomhed, er vores vrede, frygt og afsky et signal i støjen.

Gennem dominansen af ​​disse værktøjer - i vores medier, vores samtaler og vores liv - har vi set vores fælles diskurs blive grim, splittende og i stigende grad polariserende.

Hvad kan vi gøre ved det?

Dette er fire designændringer, som vi måske overvejer for at forbedre måden, vi deler online:

Giv humaniserende anmodninger

Skub folk i den rigtige retning med specifikke anvisninger, før de poster

Molly Crockett på Yales Crockett Lab har antydet, at vores manglende evne til fysisk at se andres følelsesmæssige reaktioner muligvis kan tilskynde til negativ opførsel på sociale medier. Online kan vi bogstaveligt talt ikke se andres lidelser, og det gør os mere villige til at være uvenlige.

Nicholas Christakis (også på Yale) har vist, at virkelige sociale netværk kan påvirkes af simpel AI for at forbedre gruppeadfærd og -resultater. Vi kan tænke på at inkorporere spørgsmål som det her.

Dette er flere indgreb, som vi kan placere umiddelbart efter, at folk har sendt - hvilket giver os mulighed for at skubbe brugerne mod venlighed og bedre opførsel.

Forskning om perseptuel dehumanisering har vist, at vi måske er væsentligt mere straffende over for mennesker i digitale miljøer. At øge empatiske reaktioner som dette kan hjælpe med at øge opfattelsen af ​​vores digitale avatarer som mennesker. (Denne undersøgelse er fascinerende: noget så enkelt som den lodrette / vandrette orientering af vores ansigter i vores profilbillede kan bestemme, om andre betragter os som værende strafbare.)

Din vrede vil sandsynligvis ikke blive hørt af den anden side. En bedre måde at tænke på er: jo mere skandaløst dine tweets er, jo mindre sandsynligt er den anden side for at se det. Dette er baseret på Bradys forskning, der har vist, at tweets med følelsesmæssigt / moralsk sprog er begrænset i, hvordan de rejser inden for ideologiske netværk.

For mennesker, der virkelig ønsker at få forbindelse med andre målgrupper, kan dette give dem pause og hjælpe dem med at genoprette. Selvom dette muligvis ikke afskrækker flertallet af mennesker, der poster inflammatorisk indhold, kan nogle måske overveje deres sprog. Dette kan indrammes med grundlæggende oplysninger om, hvordan man gør den mere tilgængelig for andre målgrupper.

Vi gør vrede ting, som vi ofte senere fortryder. At have et øjeblik til at pause, gennemgå og fortryde indhold, der er markeret som sårende, kan reducere sandsynligheden for at dele det i vores værste øjeblikke.

Bemærk: Alle ovenstående anvisninger kan muligvis også bruges med sammenhængende indholdslignende artikler, så længe indholdet indekseres og markeres korrekt.

At være uenig med mennesker er svært. At være uenig med folk i offentligheden er endnu sværere. Der er et enormt socialt pres, når vi skriver kommentarer til folks stillinger i offentligheden: Vi er udstillet, kæmper om en idé med et publikum, der ser os. At give et privat svar - tage det til direkte besked som standard - kan muligvis tilskynde folk til at åbne sidebjælker for at have samtaler med mindre eksternt pres.

Det hele er fantastisk, men hvordan finder vi disse poster i første omgang? Er det ikke så vanskeligt? Ja det er. Lad os komme ind i ukrudtet et øjeblik.

Udvælgelse af usundt indhold med bedre metrics

Markering og filtrering af specifikke indholdstyper, vi foretrækker at se mindre af

Dette er meget sværere, end det lyder. Vi har brug for metrics for at træne algoritmer og mennesker til at finde de ting, vi ikke ønsker. Hvis vi griber ind i det forkerte sæt metrics, kan vi let ende op på nogle virkelig mørke steder.

Algoritmer er repræsentationer af menneskelig intelligens - og ligesom enhver menneskelig skabelse kan de arve og forstærke vores perspektiver og mangler. Dette er kendt som algoritmisk skævhed, og det kan manifestere sig i aktiemarkedsfejl, systemisk diskrimination af lån, urimelig lærerevaluering og endda i racistiske uretfærdige fængselsstraffe.

Facebook træner allerede deres nyhedsfeedsalgoritme omkring metrikken for, hvad der er "meningsfuldt" for sine brugere. Problemet med denne måling er, at mange stærke menneskelige reaktioner - som moralsk forargelse, afsky og vrede - i det store og hele betragtes som meningsfulde.

For at gøre dette rigtigt, har vi brug for bedre beregninger.

Ved korrekt at måle den type indhold, som brugerne ikke ønsker at se mere af, kan vi begynde at give brugerne en menu med valg, der nøjagtigt repræsenterer deres præferencer, ikke kun hvad de vil klikke på.

Sociale medier er bygget til det nuværende selv

Dette er tre mulige kandidater til indhold, som vi måske foretrækker at have mindre af: forargede, giftige og beklagelige. Dette er udgangspunkt.

Kritisk note: Markering af indhold, der inducerer specifikke negative svar, trækker øjeblikkeligt ind i frit ytringsområde. Hvem skal sige, at platforme skal manipulere andre menneskers stemmer, hvis de siger ting, som visse mennesker synes stødende? Er det ikke den censur? Dette er et enormt, kritisk spørgsmål - og et spørgsmål, som jeg vil tage op. Læs videre.

Disse målinger inkluderer ikke det vigtige arbejde, der udføres i informationssikkerhed: falske nyheder, desinformation og statsstøttet propaganda, skønt de kan hjælpe med at reducere dens spredning.

Når disse indholdstyper er identificeret, kan vi træne overvåget AI til at markere det i fremtiden.

Beklageligt indhold

Beklagelse er en af ​​de mest almindelige følelser, vi føler efter at have brugt betydelig tid på sociale medier. Dette skyldes stort set den slags indhold, vi klikker på trods os selv, at vi ved, at vi ikke burde.

Dette er baseret på begrebet nutidig bias: En naturlig menneskelig tendens for mennesker til at give stærkere vægt på udbetalinger, der er tættere på det nuværende tidspunkt, når man overvejer afvejninger mellem to fremtidige øjeblikke.

Det er vanskeligt at måle nuværende bias, men en start kan være at præsentere en ikke-påtrængende, enkel prompt til feedback til brugere, efter at de har forbrugt et sæt indhold. Dette kræver nogle tankevækkende designvalg for at afbalancere frekvens med flow.

Giftig indhold

Toksicitet kan bestemmes ved at bede folk om at bedømme indlæg i en skala fra giftig til sund, hvor giftig er defineret som "et uhøfligt, respektløst eller urimeligt indlæg, der sandsynligvis får dig til at forlade en diskussion." Dette er Perspektiv API's model - et projekt af Jigsaw (en del af Google, der er den tidligste version af dette værktøj var ret mangelfuld ²). En kritisk del af at gøre dette arbejde er at sikre, at disse vilkår defineres af en forskelligartet og repræsentativ prøve af brugere.

Forargede indhold

Dette er indhold der bruger et moralsk, følelsesmæssigt og andet fordømmende sprog. Vi kan definere det ved at indeksere en moralsk grundlæggende ordbog, som oprindeligt blev udviklet af Jonathan Haidt og Jesse Graham og kombinere den med andre ordbøger. Denne definition kan udvides og udnyttes til at omfatte 'andet-fordømmende' og hyperpolariserende sprog.

Filtrer usundt indhold som standard

Når brugere har offentliggjort negative indlæg, skal du filtrere, hvordan indholdet vises

Alt det indhold, vi deler på sociale medier, gennemgår allerede et engagementsfilter. Facebook, Twitter og andre skubber indhold op eller ned i vores feeds afhængigt af, hvor sandsynligt det er at fange opmærksomhed (eller hvor meget du betaler dem for at fremme det). Problemet er, at visse typer indhold - forargede, sensationelle, clickbait osv. - naturligvis hacker vores opmærksomhed på usunde måder.

Usundt indhold kan forholdsmæssigt nedvægtes for at tage højde for dets naturlige viralitet. Naturligvis gør sociale medievirksomheder allerede dette regelmæssigt for at redegøre for misbrugt indhold, piratkopiering, spam og tusinder af andre variabler. De kunne også gøre det samme for andre typer udløsende indhold. Dette ville forholdsmæssigt reducere prominensen af ​​skandaløs-inducerende, giftige og beklagelige poster og give dem mere lige fod med andre typer indhold.

Bemærk: Dette trækker længere ind i det frie ytringsområde, og riket bringer filterbobler og ekkokamre op. Jeg vil behandle begge disse nedenfor.

Giv brugerne feedkontrol

At give brugerne kontrol over deres eget algoritmiske indhold

Under valget i 2016, hvor strømme af politisk forargelse og vitriol var de primære produkter fra vores sociale medie-feeds, virkede dette som en dårlig idé. Ville brugerne ikke bare kokonere sig inden for deres egen forkert udfyldte information? Ville dette ikke bare øge den politiske isolering? Men da bestræbelserne på at identificere falske nyheder, forkert information og propaganda har vundet damp, er problemet, der ligger til grund for vores afhængighed af black-box-algoritmer, fortsat. Det, der mangler, er gennemsigtighed om, hvorfor vi ser, hvad vi ser på sociale medier.

Modgift mod dette er at give brugerne adgang til de redaktionelle processer, der bestemmer hvilket indhold vi ser. Fra den mest basale omvendt-kronologiske rækkefølge til stærkt kuraterede feeds, kunne denne proces åbnes.

Sådan gøres det: Dashboards

Gobos instrumentbræt med flere indledende målinger.

Et projekt, der startede med MIT Media Lab, kaldet Gobo, startede denne proces med at udvikle en åben samling af sociale feeds for at vise et eksempel på, hvordan et betjeningspanel kan se ud. Dette giver brugerne mulighed for at filtrere deres indhold efter ting som politik, uhøflighed og viralitet. Disse målinger er et anstændigt udgangspunkt i at tænke over, hvordan et åbent feed kan se ud.

En anden analogi: Byggesten eller opskrifter

Dette kan se ud som et sæt nye værktøjer til at udforske nye perspektiver og dybden af ​​vores foder. Disse feeds kunne diskuteres, omkonfigureres og deles på egen hånd.

Denne proces med at designe foderstyring for brugere vil åbne en vigtig dialog om, hvad der udgør en sund informationsdiæt - noget, der i øjeblikket er skjult af deres ejendomsret. At tvinge brugere til at beslutte kan muligvis også tilskynde brugerne til at lære mere om den slags usunde triggere, de regelmæssigt serveres.

Det store spørgsmål

Er disse interventioner en anden form for censur? Hvis vi reducerer synligheden af ​​mennesker online, der siger ting, vi er uenige i, er det ikke den undertrykkelse af tale?

Dette er et kæmpe emne.

Det er svært at overdrive, hvor vigtige og indflydelsesrige disse platforme er for samfundet på dette tidspunkt. Nogle af de største og mest betydningsfulde sociale ændringer i de senere år er kommet fra aktivisme katalyseret af moralsk forargelse, der deles via sociale medier. Mange af disse kulturelle og politiske bevægelser ville ikke have været muligt uden dem: #ArabSpring, #TeaParty, #BlackLivesMatter, #MeToo. Hvad ville der ske, hvis disse stemmer blev undertrykt?

Men dette er det kritiske problem: sociale medier undertrykker allerede vores stemmer.

Den måde, vi i øjeblikket serveres indhold på, er ikke en neutral, objektiv proces. Det er ikke i sig selv demokratisk, ret fordelt eller konstitutionelt beskyttet. Disse værktøjer promoverer eller begraver allerede indhold med en proprietær algoritme, som vi ikke har noget at sige til.

De er ikke censureret for politisk partisanskab. De er censureret for vores engagement - for at holde os knyttet og tilsluttet disse produkter og for at vise os annoncer. Den dag, vores kronologiske feeds blev ejendomsretlige sorteringsmekanismer, var den dag, disse platforme ophørte med at være neutrale.

Jo mere kritiske disse værktøjer bliver til den offentlige diskurs, ytringsfrihed og demokrati, jo mere problematisk er det, at disse algoritmer bliver skjult for os.

Og dette er i sidste ende pointen - ved at acceptere vigtigheden af ​​disse værktøjer, men bede om ingen af ​​kontrollen, opgiver vi vores evne til at bestemme den type samtale, vi har som samfund.

Tre sidste ting:

  1. Disse er alle beregnet til at være testbare indgreb.
  2. De er designet til at være iboende ikke-partisan.
  3. De vil sandsynligvis resultere i kortvarige reduktioner i engagement og annonceindtægter, men en mulig langsigtet stigning i opfattelse, sundhed og velvære.

Dette er ikke perfekte løsninger. De er udgangspunkt, som kan udforskes mere grundigt. En del af målet med denne indsats er at føre en samtale om disse værktøjer, der er baseret på testbare resultater. Med det i tankerne vil jeg opdatere denne artikel fra tid til anden, når der er mere bevis og forskning tilgængelig.

Jeg håber, at det ved at omhyggeligt udvælge, teste og kritisere disse designs kan føre os hen imod noget, der i sidste ende er et bedre alternativ til den splittende, giftige og dybt usunde digitale sfære, som vi gensidigt beboer.

Referencer

  • Om filterbobler og ekkokamre: Nyere undersøgelser antyder, at regelmæssig eksponering for modstridende politiske perspektiver faktisk kan bidrage til polarisering. Dette er en stærk tilbagevenden til argumentet om, at filterbobler / ekkokamre forårsager polarisering. Min læse er, at hvis vi ønsker at reducere systemisk politisk opdeling, må vi i stedet nødt til at reducere prominensen af ​​specifikke slags stærkt partisan / udløser indhold - ikke nødvendigvis udvide vores eksponering.
  • Molly Crockett har vist, at digitale miljøer giver os flere muligheder for at blive rasende end noget andet medium, og har antydet, at fordelene ved at dele vores forargelse online øges meget. Naturartikel
  • William Brady har vist, at tweets med moralske / følelsesmæssige nøgleord får 20% boost for hvert anvendt ord. Dette er blevet et skjult incitament for folk til at dele splittende, skandaløst og følelsesladet indhold online. Artikel & abstrakt
  • Katrina Fincher studerer, hvordan vi dehumaniserer andre i digitale miljøer. Artikel & abstrakt
  • Nicholas Christakis har vist, at virkelige sociale netværk kan manipuleres af ”stum” AI for at hjælpe med at forbedre gruppeadfærd og -resultater. Video, der skitserer hans seneste arbejde

Yderligere læsning

  • Sådan sælges din frygt og skandaløs fortjeneste - min forrige artikel i denne serie
  • På etisk bygning af anbefalingsmotorer - af Renee Diresta
  • Ting, du kan gøre for at forbedre dit forhold til sociale medier som forbruger lige nu - Faste forslag fra Center for Humane Tech
  • Giver mening om faktaforvrængningsfelter inden for sociale mediefirmaer - af Nemil Dalal
  • Er noget værd at maksimere? - artikel af Joe Eldelman om oprettelse af bedre målinger.

Særlig tak til William Brady ved NYU, Molly Crockett fra Yale, Katrina Fincher i Columbia og Center for Humane Tech for indsigt og forskning anvendt i denne artikel. Hvis du gerne vil holde kontakten, tilmeld dig mine sjældne opdateringer eller følg mig på Twitter her.