Teknologi for menneskets beste
Teknologi har lenge vært en del av livene våre, både privat og på jobb. Men det går raskt nå.
Dette innlegget ble først publisert i Dagsavisen
Hvordan skal vi sikre at teknologien utvikles i tråd med våre etiske verdier, midt i en utvikling som løper fortere enn noensinne?
Noen år etter Facebooks inntog ble smarttelefonen vanlig. Dette skapte et helt nytt digitalt liv for de fleste av oss. Det var vanskelig å forstå omfanget av hva dette ville gjøre med samfunnet, selv om vi hadde levd med internett en stund.
Reguleringer, etiske utvalg og diskusjonen rundt mulige konsekvenser tok tid. Nå er vi godt vant til å bruke teknologi både privat og på jobb, men likevel kan kunstig intelligens endre svært mye for samfunnet, virksomhetene våre og for oss som privatpersoner. De fleste av oss har det siste halvåret fått en økt bevissthet rundt hva kunstig intelligens er, og konsekvensene av teknologien, enn vi har hatt tidligere.
Det er uenigheter om hvilke farer som ligger i den videre utviklingen av kunstig intelligens. Sjefen av Open AI, Sam Altman, sjef for Google DeepMind, Demis Hassabis, og AI forsker Geoffrey Hinton, sluttet seg i våres til et opprop om de eksistensielle farene ved kunstig intelligens.
De dyktige forskerne vi har på kunstig intelligens på NTNU, som Heri Ramampiaro, professor og leder for Institutt for informasjonsteknologi og datateknikk, og Inga Strümke, førsteamanuensis, forsker og forfatter av «Maskiner som tenker», er ikke bekymret for at kunstig intelligens vil være eksistensielt farlig for mennesker og samfunnet vårt. Det samme gjelder blant annet en av de mest kjente forskerne på kunstig intelligens gjennom de siste tiårene, Yann Lechun.
Det de er mest bekymret for er teknologiens mulighet til å skape usikkerhet rundt hva som er verifiserbare fakta, spredning av direkte feilinformasjon, og spredning av informasjon bygget på hat eller som har andre negative effekter for privatpersoner, virksomheter eller samfunnet som helhet. Dette er alvorlige problemer vi må ta tak i. Sammen skaper de ulike synspunktene god grobunn for nyttige diskusjoner rundt emnet. For nå snakker vi i alle fall om etikk, konsekvenser og reguleringer relativt tidlig. Det er bra.
”Det er viktig at Norge ikke faller bakpå i utviklingen av regelverk og etiske retningslinjer”
De nye språkmodellene lansert det siste halvåret mates med informasjon laget av oss mennesker. Det er informasjon som er feilbarlig, og som kan inneholde holdninger basert på frykt, diskriminering og urettferdighet. Vi mennesker kan gjøre både godt og vondt i verden, og det kan også teknologien gjøre. Nettopp fordi den er utviklet av oss mennesker.
Per dags dato tror vi ikke at maskiner kan lage sine egne mål, de følger målene vi mennesker setter og gir oss det den tror vi vil ha. Det krever tydelighet og løpende god vurdering av hvilke data som skal gå inn i ulike modeller. I tillegg bør utviklere og selskapene som står bak ulike modeller for kunstig intelligens jevnlig vurdere hvilket nivå av kompleksitet en modell skal bygges på basert på hvilket formål modellen har, hvilke modeller som skal være koblet opp til hvilken informasjon på internett, om kunstig intelligens skal få ta beslutninger – og på hvilket nivå, og så videre.
Regulering og etiske retningslinjer er noen av svarene på hvordan vi vil sikre forsvarlig utvikling og bruk av kunstig intelligens. I et kappløp om toppen er det vanskelig for de store teknologiselskapene å bruke tid på å gjøre gode vurderinger om trygghetsmekanismer. Mye må gjøres fra politikere og lovgiversiden.
FNs generalsekretær Antonio Gueterres annonserte for et par uker siden at FN kommer med globale etiske retningslinjer kalt «UN Code of Conduct for Information Integrity on Digital Platforms» for å redusere de negative effektene av både kunstig intelligens og andre digitale verktøy og plattformer. Rundt samme tid godkjente Europakommisjonen forslaget til en av verdens første omfattende lovgivninger på kunstig intelligens, kalt AI Act.
Den skal verne mot at kunstig intelligens blir en fare for helse, sikkerhet og fundamentale rettigheter, sikre at sårbare grupper ikke blir utnyttet, samt brukernes rett til innsyn og hindring av at kunstig intelligens utvikler partiskhet innen arbeidsliv og utdanning. EU etablerer også et råd for kunstig intelligens som skal sikre etiske retningslinjer for utvikling og bruk.
USA er foreløpig lengre bak i utviklingen av regelverk. Flere stater har enkeltvis kommet med egne reguleringer på kunstig intelligens. I fjor høst lanserte den amerikanske regjeringen «AI Bill of Rights». Denne er ikke bindende, men inneholder klare anbefalinger til bransjen. Vi kan håpe på at EUs nylige innsats på området vil spre seg til globalt for å sikre felles internasjonale rammeverk innen kunstig intelligens.
I Norge har flere forskere foreslått å danne en eget nasjonalt råd på kunstig intelligens, og nylig foreslo fem medlemmer i Venstres stortingsgruppe å danne et norsk algoritmetilsyn, å innføre EUs AI Act i Norge, og å styrke budsjett og forskning på kunstig intelligens nasjonalt. Det er viktig at Norge ikke faller bakpå i utviklingen av regelverk og etiske retningslinjer dersom vi skal henge med i den raske utviklingen som skjer på området.
Etikk som fag i utdanning blir også viktig fremover innen de fleste fagfelt, og spesielt innen teknologifag. Vi trenger gode teknologer som er bevisste på hvor mye bra teknologi kan gjøre for verden, samtidig som fallgruvene, misinformasjon og potensielle trusler i teknologien kan håndteres på en god måte.
Det er bra vi har økt bevissthet rundt både mulighetene og konsekvensene i teknologi. Med høy aktivitet fra politikere og lovgivere, forhåpentligvis gjennom globale samarbeid, kan vi gjøre mulighetene større enn de negative konsekvensene.
Men det krever at både politikere og virksomheter er på ballen fremover, og ikke sover i timen.