Personlige algoritmer på plattformer som YouTube og TikTok kan gjøre oss trygge på feil. En ny studie fra Ohio State University viser at algoritmer ikke bare former meninger, men kan forvrenge det vi tror vi har lært. Effekten rammer både voksne og barn.
Dette fant forskerne
I en kontrollert studie ble det slått fast at algoritmestyrt læring kan snevre inn hva vi ser – og samtidig øke vår tro på at vi har forstått helheten.
- Deltakere som fulgte anbefalinger fra en algoritme utforsket mindre av tilgjengelig informasjon.
- De fokuserte på et smalt utvalg av egenskaper og utviklet et forvrengt bilde av virkeligheten.
- De svarte oftere feil etterpå, men uttrykte likevel høy selvtillit.
- Mest oppsiktsvekkende: De var mer sikre når de tok feil enn når de svarte riktig.
Studien i korte trekk
- Antall deltakere: 346
- Oppgave: Lære om fiktive, krystall-lignende romvesener
- Variabler: Seks ulike egenskaper per romvesen
- Publisert i: Journal of Experimental Psychology: General
Slik fungerte forsøket
346 personer skulle lære å skille mellom fiktive, krystall-lignende romvesener, hver definert av seks egenskaper. Én gruppe fikk all informasjon presentert, den andre fikk innhold valgt av en algoritme.
Resultatet: Gruppen som fulgte algoritmens anbefalinger, utforsket langt mindre. De ble værende i et snevert utvalg av egenskaper og dannet en forenklet og misvisende forståelse av hva som faktisk kjennetegnet romvesenene.
Falsk trygghet på feil
Etter læringsfasen tok deltakerne tester. De som hadde fulgt algoritmen, trodde de mestret stoffet – men tok oftere feil. De var dessuten mer sikre når de tok feil enn når de svarte riktig.
«De tror det de vet generaliserer til andre deler av miljøet som de aldri har opplevd,» sier professor Brandon Turner.
Hvorfor dette angår barn
Implikasjonene er særlige for barn som bruker algoritmestyrte plattformer for å lære om verden. Innhold prioriteres for å holde dem engasjert, ikke nødvendigvis for å gi bredde og balanse. Det kan skape vesentlige kunnskapshull.
«Å konsumere lignende innhold er ofte ikke i tråd med læring. Dette kan skape problemer for brukere og i siste instans for samfunnet.»
Hvem står bak, og hvor er det publisert?
Studien er ledet av Giwon Bahg ved Ohio State University, som del av en doktorgrad i psykologi. Den er publisert i Journal of Experimental Psychology: General, og omtalt av Ohio State University og ScienceDaily. Forskningen er også registrert i PubMed.
Hva betyr dette for deg?
Funnene viser at personaliserte algoritmer kan få oss til å ta begrenset informasjon og trekke vide, ofte grunnløse konklusjoner. Selv når vi mangler forkunnskaper, kan anbefalingssystemer styre oss inn i smale informasjonstunneler – og gi oss en falsk følelse av kunnskap og sikkerhet.
Hovedpoenget: Algoritmer kan gjøre læring smalere og selvtilliten høyere – selv når vi tar feil. Det er særlig viktig å ha i mente for barn og unge som lærer via anbefalt innhold på nett.
Kommentarer
0 kommentarer
Vi godtar kun kommentarer fra registrerte brukere. Dette gjør vi for å opprettholde en trygg og respektfull debatt, samt for å unngå spam og misbruk. Registrering er gratis og tar bare noen sekunder.
Du må være innlogget for å kommentere. Logg inn eller registrer deg for å delta i diskusjonen.