Hvordan sikrer vi ansvarlig teknologi?


Hvorfor tror du, at folk reagerer så stærkt på ChatGPT?

Jeg tror, ​​at en grund er, at ChatGPT interagerer med os på en anden måde end de søgemaskiner, vi kender, ved at personalisere deres svar i upåklagelige sætninger, der kan forveksles med ræsonnement.

Nogle ser det som kontroversielt, fordi det bruger data, der kan være frit tilgængelige på internettet, men som ikke er beregnet til virksomhedsoverskud. Virksomheden bag ChatGPT har brudt en social kontrakt ved at udnytte noget i det offentlige domæne til egen vinding.

Samtidig indsamles brugerdata på en anden måde end i de søgemaskiner, vi allerede kender, fordi du som noget nyt giver noget af dig selv i form af din tilknytning til ideer eller tanker, som du deler netop pga. måde ChatGPT interagerer med dig på.

Vi ved heller ikke, om det er designet til at påvirke brugeren på bestemte måder – for eksempel hvis det har en tendens til at være racistisk og kvindehad, ligesom mange andre maskinlæringsbaserede softwaresystemer, fordi de forstørrer overvejende elementer i de data, som de er uddannet.

I stedet for at fokusere blindt på individuelle produkter, opfordrer du os til generelt at kræve teknologi for at være ansvarlig. Men hvordan definerer man ‘ansvarlig teknologi’?

Hvorvidt en teknologi er ansvarlig afhænger helt af samspillet mellem, hvad den er skabt til, og hvordan den bruges. Opfylder det de opstillede mål, eller fungerer det helt anderledes i praksis?

En producent kan sigte efter at skabe ansvarlig teknologi, men man kan ikke ensidigt mærke teknologier som enten ‘ansvarlige’ eller ‘uansvarlige’. Det gør det meget vigtigt at nøje overvåge specifikke effekter, så vi for eksempel opdager, om teknologier har uhensigtsmæssige konsekvenser på trods af gode intentioner.

Hvordan vurderer man, om en teknologi er ansvarlig?

Det første skridt er at beskrive teknologien i sammenhæng. Hvordan er det en del af den større kontekst af infrastrukturer, forretningsmodeller og sæt af kulturelle værdier? En uansvarlig tilgang ville være at sige: “Åh, nu er der en teknologi, der kommer til at revolutionere verden, så vi må hellere reagere,” og så skynde os at bruge den eller forbyde den uden at undersøge den nærmere.

Trin nummer to er at analysere dens virkninger: Hvad sker der i praksis? Indfrier teknologien sine løfter? Hvis ikke, hvad gør det ellers? Og hvilke krav skal være opfyldt, for at det er en god teknologi?

Det tredje trin er at eksperimentere med teknologien. Hvad er grænsen for dens muligheder? Udelukker det nogen eller noget?

Det er også vigtigt at vurdere, om de værdier, som teknologien repræsenterer, stemmer overens med værdierne i den pågældende organisation, skole, sektor eller land. Hvis ikke, kan du sige nej og vælge ikke at promovere det eller pålægge strenge restriktioner for dets brug.

Med hensyn til offentlig digital infrastruktur – som er mit forskningsfelt – handler det om at sikre, at teknologien understøtter det samfund, vi ønsker.

Er ansvarlig teknologi lig med nødvendig teknologi?

Vi kan sagtens få alle slags teknologier til at udføre tingene for os, men hvor vil vi hen som mennesker? Hvad vil vi gerne træne? Det er den slags spørgsmål, vi også skal stille os selv i den sammenhæng, vi er en del af, for at afgøre, om det er nødvendigt og gavnligt at omfavne en bestemt teknologi.

Som nogen skrev i Gymnasieskolen, tager man ikke en gaffeltruck med i fitnesscentret for at løfte vægte. Du løfter selv vægtene, fordi du gerne vil udvikle dine muskler. Han troede ikke på, at chatbots letter læring, så det ville være dumt at bruge dem i skoler.

Debatten er siden blevet mere afbalanceret, da man flere steder har besluttet at tillade brug af ChatGBT i undervisningen og i forbindelse med aflevering af opgaver. Efter min mening er den ansvarlige tilgang til chatbots at trække en streg oppefra i forhold til brugen af ​​det og derefter systematisk indsamle erfaringer gennem dialog med lærere, undervisere og studerende.

Det ville også være en god idé at udbrede en grundlæggende forståelse af teknologi ved at lære, at al teknologi har indbyggede præferencer, værdier, standarder, politikker og historie.

Er regulering nødvendig for at sikre ansvarlig teknologianvendelse?

Jeg kan ikke tænke på teknologier på infrastruktur- eller samfundsniveau, som ikke er underlagt regulering. Når vi taler om digitale teknologier, er retten til privatliv noget, der skal og er reguleret.

Big Tech har vist sig notorisk vanskeligt at regulere, fordi de leverer tjenester gratis til gengæld for data. Det er deres forretningsmodel. EU forsøger at kontrollere dette med GDPR og anden regulering. Desværre ser lovgivningen altid ud til at halte bagefter virkeligheden, men det er nok dens natur.

Jeg går ind for, at vi forsker mere i samspillet mellem mennesker og automatiserede systemer for at sætte os i stand til at træffe bedre beslutninger på samfundsniveau. Det er vigtigt, at vores demokratiske institutioner og vores tillid til myndighederne ikke udhules, fordi vi synes, at noget er smart direkte. Vi skal undersøge de praktiske virkninger grundigt.

Leave a Comment