DUoID en selvmotsigelse?

Av Kari Olstad, Fleksibel utdanning Norge

De digitale verktøyene gir oss mange muligheter til å tilpasse undervisningen, og gjøre den mer fleksibel og tilgjengelig for noen. For eksempel dem som trenger å følge undervisningen fra eget hjem, eller som trenger fleksibilitet i studietidspunkt. I denne bloggen har det vært skrevet om hvordan kunstig intelligens kan hjelpe studenter med lese- og skriveoppgaver, og altså bidra til muligheter for universell utforming av undervisnings- og læringsaktiviteter[1].

Men så har vi mange eksempler på at teknologien i seg selv er lite inkluderende. Vi har regelverk for universell utforming, og det skal ivareta behovene til dem med fysiske eller kognitive utfordringer. Men hva med det kulturelle? Risikerer vi at teknologien rett og slett kan oppføre seg rasistisk? Det er det dessverre både store og små eksempler på: Alt fra såpedispensere som diskriminerer hender med mørk hud[2] til prediksjonsmaskiner som overvurderer gjentakelsesfare for fargede kriminelle[3].

ChatGPT er heller ikke trent opp på materiale som er nøye kuratert og valgt ut for sitt politisk korrekte innhold. Tvert imot: at modellen har en vestlig orientering, er ingen hemmelighet[4].

Ingen teknologi er verdinøytral. Verdier og orienteringer ligger med i valg av oppgaver teknologien skal utføre og hvordan den skal utføre oppgavene, og kanskje særlig hva den skal velge bort. Verdiene blir med fra dem som bestiller og dem som designer og dem som tester teknologien. Når det gjelder kunstig intelligens er menneskeskapte skjevheter i rikt monn til stede i datasettene maskinene trener på, og blir med videre inn i det de produserer.

I DUoIDs «Digital, universell og interkulturell didaktikk» er det universelle og interkulturelle det vi forsøker å oppnå, og det digitale skal være et hjelpemiddel. Men vi må være våkne og bevisste så den ikke i stedet opptrer som en lumsk ulv i fåreklær.


[1] https://duoid.no/kunstig-intelligens-gir-muligheter-for-universell-utforming-av-undervisnings-og-laeringsaktiviteter/

[2] https://peopleofcolorintech.com/industry/ai/from-google-to-amazon-to-self-driving-cars-how-racially-biased-products-hurt-users-with-dark-skin/

[3] https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

[4] https://help.openai.com/en/articles/8313359-is-chatgpt-biased

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *