Prorektor Eirik Søvik opna den 9.11.23 eit seminar om kunstig intelligens på Høgskuln i Volda. Under finn de opningshelsinga hans.
Hjarteleg velkomne til Høgskulen i Volda! Vi set særs stor pris på at så mange har teke vegen hit til oss for å lære meir om kunstig intelligens. Kunstig intelligens (KI) vil utan tvil setje sine spor i vår region – og alle andre regionar.
Når ein skal presentere eit seminar om kunstig intelligens, er det vanleg å snakke litt om kor flott det vert – for så å ta ein tur ned i dalen med dei potensielle negative sidene – før ein til slutt seier ber alle tenke på moglegheitene igjen. Etter å ha sett på programmet og alt det positive og alle moglegheitene som vert presenterte der, tenkte eg at eg skulle gjere det litt annleis. Frå meg får de berre det negative.
Men kunstig intelligens – er det noko nytt? Revolusjonen med tenkande maskiner var lova på 40-talet, på 50-talet, på 60-talet, på 70-talet, på 80-talet, ja, til og med på 90-talet. Litt små-ulming var det òg tidleg på 2000-talet, , men så blei det ikkje lenger snakka om ein revolusjon; ein har kanskje nytta litt meir forsiktige omgrep, som maskinlæring. Men for om lag eit år sidan vakna verda opp til at no – med ChatGPT – var revolusjonen her.
Eg for min del høyrde først om det i ein diskusjon på Facebook. Det var eit innlegg frå ein som lurte på om eit straumbrot på serverane som hadde ChatGPT-tenesta, ville medføre eit drap. Han skreiv at han hadde snakka med ChatGPT og fått inntrykk av at dette var ein skapning som hadde eit inderleg ønske om å fortsette å leve «livet» sitt, og då ville jo eit ulykksalig straumbrot avslutte eit liv, i strid med denne skapningen sitt ønske. Vidare var det jo ei bekymring om framtida: Kva når vi alle har slike kunstige intelligensar på PC-ane eller mobiltelefonane våre, og vi ønsker litt fred frå det evinnelege maset deira (alle brukarar av Snapchat kan vel kjenne seg igjen i den skildringa), og vi vel å skru av maskinene – er det då eit mord?
Kva var det med ChatGPT som førte til desse moralske dilemmaa? Ingenting på serverrommet hadde fysisk endra seg, men her oppstod det plutseleg ein diskusjon om dei moralske rettane til datamaskiner. I vekene som følgde, var det mange som stilte desse spørsmåla: Om datamaskiner vert intelligente, bør ikkje det ha noko å seie for korleis vi behandlar dei?
Dette i ei verd der vi, reelt sett, omgir oss med skapningar som vi veit kan tenke, som vi veit kan føle, men likevel ofrar vi stort sett ikkje ein tanke på om dei ønsker å leve, før vi sender dei til slakteriet, eller endrar verda på måtar som definitivt gjer liva deira vanskelegare å leve.
Eg skal ikkje misjonere om veganisme eller andre ting her, men kva er det som gjer at mange no plutseleg snakkar om den moralske kapasiteten til datamaskiner på ein heilt anna måte enn vi gjer for fisk og fluger? Om ein ser på kapasiteten til KI-verktøy, så var det eigentleg ikkje noko kvantesprang som hadde skjedd. Desse verktøya har lenge kunne gjort mange fantastiske – og skremmande – ting. Som til dømes å skape bilete og film som ser nesten ekte ut. Men det som trefte oss i fjor, var at vi opplevde at dei kunne nytte språket vårt på ein ny måte.
Kyr og kyllingar kan ikkje fortelje oss korleis dei har det; ChatGPT har det ikkje på nokon måte i det heile, men kan formulere seg på same måten som vi gjer. Det å kunne sette ord på korleis ein har det, sjølv om ein ikkje har det på nokon måte som helst, det utgjorde den store skilnaden.
Dette vekker nokre moralske spørsmål – ikkje dei om det er greitt å skru av ein PC eller ikkje, men meir om kva dette har å seie for korleis vi ser på medmenneska våre.
No er det heldigvis ikkje valkamp lenger, men i valperiodane går det ikkje ein dag utan at ein kan lese i avisa om ein menneskeskjebne som har vorte påverka av politiske prosessar, og korleis ei røyst til det eine eller det andre partiet vil kunne forhindre at fleire skal lide denne skjebnen. Desse historiene har hatt eit truverd fordi dei kjem frå eit anna menneske. Kva skjer når vi ikkje lenger kan vere sikre på om avsendaren faktisk har hatt denne opplevinga, og det kanskje berre er noko ei datamaskin har funne på for å få oss til å tru at nokon har hatt denne opplevinga? Har det noko å seie? Påverkar det tilliten vår til det politiske systemet?
I vår sektor, høgare utdanning, har vi ein annan moralsk dimensjon. Det handlar om det å levere eksamenssvar som ein ikkje har skrive sjølv. Til alle tider har enkelte juksa ved eksamenar. Det har ein tenkt på som trekk ved den som juksar. Men den frykta som oppstod i kjølvatnet av ChatGPT, vitnar om noko anna. Det finst hundrevis av tenester på internett der ein kan kjøpe seg eit eksamenssvar. Men det kostar pengar, og ein kan ikkje vere sikker på kvaliteten før produktet er levert, og då har ein kanskje ikkje tid til å skrive eit svar sjølv, dersom den ein hadde kjøpt, ikkje heldt mål.
No er det gratis, ein kan prøve seg litt fram, vurdere ulike svar opp mot kvarandre, kanskje berre få innspel til litt enkeltdelar som ein har streva med. Kanskje kan ein berre be ChatGPT om å utbetre ein bit som var litt klønete formulert. Det moralske dilemmaet her ligg, først og fremst, ikkje i hovudet til studenten. Det ligg i hovudet til dei som skal ha tillit til dei. Før tenkte ein «sjølvsagt kjøper ikkje studentane eit eksamenssvar – det er jo feil». No tenker ein kanskje: «Det er så lettvint å jukse at sjølvsagt gjer studentane det.» Korleis vert miljøet her på høgskulen om dei tilsette og studentane ikkje lenger har tillit til kvarandre?
Og dette skjer ikkje berre i høgare utdanning, det skjer i heile samfunnet. Tenk deg ein elev som har skrive ein tekst om bestefaren sin, der eleven dreg fram minne frå alle dei fine fisketurane dei hadde saman. Har det noko å seie om det er læraren som les teksten, som verkeleg ser eleven, og som skriv ei tilbakemelding som inspirerer eleven til å skrive ein endå betre tekst neste gong, eller om det er ei datamaskin som har rekna seg fram til kva slags tilbakemelding eleven treng for å kome seg vidare?
Kva med ei tekstmelding frå ein bekymra ektefelle? Ein ektefelle som har vore vaken og venta på at den andre skal kome heim, halve natta. Har det noko å seie om ein digital assistent svarer det ektefellen treng å høyre der og då, eller om den andre ektefellen gir eit svar frå hjartet? Kva gjer det med oss at vi i desse situasjonane ikkje lenger kan vite om det er dei vi har rundt oss, som svarer, eller om det er den kunstige intelligensen? Og det er ikkje slik at det anten er KI eller eit menneske, heller: Det er gjerne ei blanding. Kva om det faktisk er ektefellen sin intensjon som kjem til uttrykk, men at enkelte av orda kjem frå KI? Eller kanskje læraren ikkje heilt veit kva eleven bør jobbe med, men kan nytte KI for å finne det ut, for så å skrive dei rette orda sjølv? Problemet er jo at mottakaren ikkje lenger kan vite kva som kjem frå menneske, og kva som kjem frå KI.
Kunstig intelligens vil utan tvil endre samfunnet vårt på fundamentale måtar. Det vil gjere det lettare å vere menneske, og det vil gjere det vanskelegare å vere menneske. Under Fagskulekonferansen nyleg vart det samanlikna med atombomba. Ei oppfinning som skulle endre alt, og som verkeleg har påverka verdshistoria på ein dramatisk måte. Foreløpig har ho heldigvis ikkje fått like store negative konsekvensar som vi hadde frykta. Men verda er heilt definitivt ei anna enn før ho vart oppfunnen. Eit anna døme på teknologi som har fundamentalt endra verda vår og rolla vår i henne, er hybridisering av DNA. Det at vi kan endre på våre eigne gen, utfordrar på mange måtar kva det vil seie å vere menneske no i dag, og kva det kan verte i framtida. Då dette vart gjort for første gong i 1974, vart det lagt ned forbod mot å nytte teknologien fram til vi hadde fått tilstrekkeleg tid til å diskutere konsekvensane. Det vart lagt ned eit moratorium for all vidare bruk som seinare vart oppheva, men ein konsekvens var at vi har vidareført særs strenge retningslinjer når det gjeld å nytte teknologien på menneske. Dette har vore følgt opp, og alle brot har vorte straffa.
Også for kunstig intelligens har det vore diskutert om vi burde stoppe vidare utvikling; kanskje skulle vi tatt ein fot i bakken. Kanskje burde vi finne litt meir ut om konsekvensane før vi går vidare?
Men her er det er ein viktig skilnad mellom KI, atombomber og hybridisering av DNA. Det er ikkje berre å bygge ei atombombe i garasjen eller hybridisere litt DNA på kjøkenet (sjølv om det ikkje er så langt unna). Kunstig intelligens derimot, er allereie tilgjengeleg for alle. Om ein treng ein kraftig server, kan ein leige ein frå Amazon eller Google for nokre få kroner per time. I 1974 var det uklart kva marknadskraft hybrid-DNA ein dag ville ha. Kunstig intelligens er allereie god butikk. Verken atombomba eller hybrid-DNA kan puttast tilbake i tannkremtuben, men på eit tidspunkt var det kanskje råd. Kunstig intelligens er allereie trykt ut av tuben, og det er utover over heile den vasken som vi kallar samfunnet vårt, ikkje minst ser vi det tydelegast på spegelen der vi prøver å sjå oss sjølve.
Så kva gjer vi no?
Framtida vert nok ikkje som fortida. Vår region har hatt eit fantastisk eventyr med tanke på utvikling av industri og næringsliv. Vi har tent godt på at det har vore utfordrande å bu her. Kysten fører med seg sine farar, fjella er bratte, vêret er ikkje noko å skryte av. Dei som har budd her, har måtta kare seg fast og nytta alt dei har av naturleg intelligens for å kunne livnære seg. I møte med det moderne samfunnet har dette vore eit gode for oss. Vi har nytta det vi har tileigna oss av kløkt, til å skape gode løysingar og gode arbeidsplassar som har gjort oss gjeldande på verdsarenaen – anten det gjeld skip, fisk eller møbel.
Med KI opnar det seg òg mange nye og spanande moglegheiter som vi ikkje hadde tenkt på tidlegare. Eg håpar at vi kjem til å nytte det på ein god måte. Vi er her i dag for å sjå korleis vi allereie nyttar det, for å lære av kvarandre og for å møte framtida på ein god måte. Men medan vi møtte det moderne samfunnet med eit unikt utgangspunkt, så er det litt uklart korleis vi er rusta for å møte eit samfunn der KI er ein viktig aktør. Eg håpar vi har grunn til å vere optimistiske, men eg veit det ikkje.
Så: Hjarteleg velkomne til seminar. Tannkremen er allereie ute av tuben – no må vi, saman, finne ut korleis vi skal nytte han.