Hjem
Studentsider

Verktøy basert på kunstig intelligens i utdanning

Denne nettsiden gir en kort innføring i hva generativ kunstig intelligens er, og rammene rundt bruken av disse verktøyene ved UiB.

Illustrasjonen viser et eksempel på ChatGPT.
Foto/ill.:
Colourbox

Hovedinnhold

Bruken av språkmodellen ChatGPT og lignende tjenester har fått allmenn utbredelse siden lanseringen av ChatGPT sent i 2022. Generativ kunstig intelligens (KI) bringer med seg mange muligheter, men innebærer også noen utfordringer. 

Som student må du forsikre deg om hvilke regler som gjelder for ditt fag. Det enkelte fakultet og institutt kan ha egne retningslinjer for bruk av kunstig intelligens innenfor de ulike fagene. Generelt gjelder god siterings-skikk, også for bruk av verktøy basert på kunstig intelligens.

Hva er generativ kunstig intelligens? 

  • Samlebetegnelse: Generativ kunstig intelligens er en samlebetegnelse for ulike modeller som kan produsere tekst, bilde, video, med mer, ut fra den gitte inndataen. ChatGPT er et av mange slike verktøy som bruker generativ kunstig intelligens til å produsere tekst. Som bruker kan man stille verktøy som ChatGPT spørsmål og få tilsynelatende troverdige svar tilbake. Ettersom ChatGPT er den mest brukte tjenesten for produksjon av tekst ved hjelp av generativ kunstig intelligens, vil denne brukes som eksempel. Andre verktøy som Copilot for web fra Microsoft og Bard fra Google vil kunne fungere tilsvarende som ChatGPT.
     
  • Trenger å bli trent opp: For at generativ kunstig intelligens skal kunne produsere innhold trenger den først å bli trent opp. Denne treningen finner sted ved at modellen mates, og læres opp på data. Under treningen identifiseres sammenhenger i dataene, og det er disse sammenhengene som gjør at modellen kan produsere innhold som oppleves som nyskapende eller originalt.
     
  • Ikke nødvendigvis en pålitelig kilde: Det er viktig å understreke at det er modeller som produserer innhold. Selv om en samtalerobot for eksempel er opplært med omfattende mengder data fra hele verden, betyr ikke det nødvendigvis at den er en pålitelig kilde til informasjon. Hver gang man stiller samtaleroboten et spørsmål vil den i bakgrunnen generere flere forskjellige svar, beregne sannsynligheten for at svaret er optimalt og presentere dette. Derfor fungerer ikke roboten som en søkemotor med tilgang til all den informasjonen den er blitt trent på, og må ikke forveksles med søking av informasjon i en database.
     
  • Stort potensiale: Samtidig er det et stort potensial i disse modellene, noe som var tematisert under UiB AIs seminar UiB AI #5 ChatGPT – trussel eller mulighet i forskning og utdanning? (youtube.com) Seminaret omhandlet betydningen utviklingen innen AI-verktøy har for forskning og utdanning.  

Fallgruver ved bruk av generative modeller 

Du vet aldri hvilke data modellen er trent på

Enhver generativ modell må bli trent på et sett med data. Hvilke data som blir brukt under opplæringen vil i svært stor grad kunne påvirke hvilke resultater man får ut, og dette er noe man må være bevisst på når man mottar en respons fra den generative modellen. På samme måte som at meningene og holdningene våre kan bli formet av informasjonen vi har, vil generative modeller produsere innhold i tråd med dataene de er trent på. Som bruker av disse tjenestene kan du aldri være sikker på hvilke data som er blitt brukt i opplæringen, med mindre tjenestene har gjort dette tilgjengelig på en måte som kan gjennomgås. Selv om generativ kunstig intelligens kan være nyttige verktøy, er domene-ekspertise i det aktuelle fagområdet helt nødvendig for å kunne vurdere påliteligheten til innholdet disse verktøyene produserer.  

For mer informasjon om hvordan data kan, og har påvirket kunstig intelligens til å gjøre feilslutninger, se f.eks. Rise of AI Puts Spotlight on Bias in Algorithms - WSJ 

Modellen er et resultat av dataene den er trent på – Søppel inn = søppel ut 

Selv om man vet hvilke data en modell er trent på, er det ikke nødvendigvis slik at den produserer fornuftige resultat. Kort forklart kan man si at en modell som benytter data av høy kvalitet, som oftest vil produsere innhold av høy kvalitet. Tilsvarende vil en modell som er trent på data av lav kvalitet produsere innhold av lav kvalitet. 

Som bruker av disse tjenestene kjenner man ikke til kvaliteten på dataene eller hvordan disse er prosessert. Dersom man stoler blindt på resultatet av en generativ modell risikerer man derfor at man tar i bruk upålitelige svar. Spør man ChatGPT hvem som var rektor ved UiB i 1955, får man som svar at dette var Asbjørn Øverås, og ikke Erik Waaler som er riktig. Dette er et eksempel på faktafeil, noe man kan lese mer om i professor Jill Walker Rettberg sin kronikk i NRK

Bildet viser et eksempel på faktafeil ved bruk av ChatGPT.
Foto/ill.:
UiB

Du har ikke kontroll på data du sender inn

Ved å ta i bruk generative modeller på internett sender du informasjon til servere du ikke nødvendigvis vet hvor befinner seg. EU har et svært strengt regelverk som regulerer hva bedrifter kan og ikke kan gjøre med opplysningene dine, men for nettbaserte tjenester er det er ingen garanti for at de opererer i EU/EØS i henhold til dette regelverket.  

Med mindre bedriften som leverer modellen man bruker har forpliktet seg til å håndtere dataene dine på en fornuftig måte risikerer man at disse brukes for å trene opp andre modeller, eller av ulike grunner kommer på avveie. Det er derfor svært viktig at man er bevisst på hvilke data man sender, i likhet med de fleste øvrige tjenester på internett. 

Eksempelvis er studenters arbeid som eksamensbesvarelser ikke lov å sende til generative modeller, ettersom eksamensbesvarelser er å regne som personopplysninger. I alle tilfeller hvor UiB skal sende personopplysninger til en tredjepart må det foreligge en databehandleravtale. 

Språkmodeller har et begrenset virkeområde

Ved første øyekast kan det virke som om ChatGPT og lignende språkmodeller fungerer svært likt som mennesker når det gjelder det å tenke og resonnere. Det er likevel flere ting som ChatGPT simpelthen ikke kan gjøre fordi den er en språkmodell. Den kan for eksempel ikke huske fakta, og vil ofte fremføre, «hallusinere» faktafeil på en svært overbevisende måte.  ChatGPT kan heller ikke gjøre beregninger, avveie, resonnere eller tenke logisk. 

Hva betyr dette for deg som student?  

Digitalisering, teknologi og kunstig intelligens er i ferd med å endre fagene våre og arbeidslivet på tvers av bransjer. Kunstig intelligens,  også i andre former enn generative modeller, blir tatt i bruk i mange sammenhenger. I fremtiden vil kombinasjonen av spesialisert fagkunnskap og digital forståelse inkludert kjennskap til kunstig intelligens være avgjørende i både arbeid- og samfunnsliv.   

Fremveksten av nye og tilgjengelige verktøy har ulike implikasjoner for ulike fag- og disipliner, og ulike fakultet og institutt kan dermed ha ulike tilnærminger til bruken. Uavhengig av dette er det juridiske rammer, regelverk for plagiat og fusk, og for kildeføring som må respekteres.  

Hvilke verktøy basert på kunstig intelligens kan jeg bruke?  

Som en del av Microsoft-pakken til UiB, har alle ansatte og studenter tilgang til Microsoft Copilot for web, Microsoft sin samtalerobot som bruker Open AI sin GPT 4-modell. Dette er den samme modellen som brukes i den betalte versjonen av ChatGPT, og gjør det mulig å bruke både tekst og bilder som input, eller «prompts», når du bruker tjenesten. 

Fordi UiB har en databehandleravtale med Microsoft, kan du ta i bruk verktøy basert på kunstig intelligens på en trygg måte. Løsningen er imidlertid ikke godkjent for fortrolig eller strengt fortrolig informasjon.

Les mer om Microsoft Copilot for web (tidl. Bing chat enterprise) i nyhetssaken Trygg ChatGPT-tjeneste for alle.

Slik bruker du UiB chat

For å ta den i bruk, gå til UiBchat og logg inn med UiB-brukerkontoen din.  

Hva skiller UiBchat fra ChatGPT?

  • Data blir ikke lagret andre steder enn på egen datamaskin når du bruker UiBChat

  • Chat-logger blir lagret i nettleseren du bruker, og er ikke tilgjengelig fra andre enheter 
     
  • Ved bruk av UiBchat er du trygg på at det du skriver til chatboten ikke blir delt eller brukt for å trene modellen videre 
     
  • Data du legger inn i chatten blir behandlet i Microsoft sitt datasenter i Stockholm, men blir ikke lagret hos Microsoft etter at svaret fra GPT er levert. Dette er i tråd med inngått databehandleravtale.

Vær oppmerksom på at utfordringene knyttet til hvor mye du kan stole på verktøyet og alle spørsmål om faglige retningslinjer osv. gjelder uansett hvilket verktøy du bruker, også dem fra UiB. UiBChat er kun til bruk for grønne data

Pilot i vårsemesteret 2024

Tjenesten er foreløpig i pilot, og vil i første omgang være det til 1. juli 2024. Vær oppmerksom på at den kan være ustabil, og feil vil kunne oppstå.

Juridiske rammer 

Verktøy for kunstig intelligens og GDPR

En av utfordringene med bruken av kunstig intelligens verktøy som ChatGPT og personvernregelverket (GDPR), er at dataene som blir brukt til å trene verktøyene, kan inneholde personopplysninger. Disse personopplysningene er hentet inn i verktøyet fra ulike kilder, både fra internett og fra brukerne. Det er usikkert om disse personopplysningene er hentet inn på lovlig vis, og datatilsyn fra flere land har vært skeptiske til slike tjenester av denne grunn.  

Brukere må vite at løsninger som bygger på kunstig intelligens bruker det som skrives inn eller lastes opp til å forbedre tjenesten. Det vil si at personopplysninger som legges inn blir lagret og brukt videre. Vær klar over at forespørsler som sendes inn i tjenesten kan inneholde sensitiv personinformasjon. 

Ifølge Datatilsynet må virksomheter spesielt passe på: 

  • at virksomhetens eget oppsett og konfigurasjon av tjenester krever teknisk kompetanse for å unngå at det skapes sårbarheter (i likhet med skytjenester mer generelt) 

  • at implementering og integrasjon av kunstig intelligens verktøy krever tiltak for egen informasjonssikkerhet og egen personopplysningssikkerhet (i tillegg til tjenestens egne tiltak) 

  • å være bevisst på at forespørsler som sendes inn og responderer på disse kan kunne lagres i tjenestetilbyders egen historikk eller benyttes av tjenestetilbyder for "videreutviklingsformål". 

Les mer på datatilsynets hjemmesider: Datatilsynet følger med på utviklingen av ChatGPT 

Plagiat og fusk 

Akademisk redelighet er en overordnet norm som styrer hva som er forventet av blant andre UiB sine studenter. Vi forventer at studentene stoler på egne ferdigheter, gjør selvstendige vurderinger og tar standpunkt. Generative språkmodeller som ChatGPT og andre generative verktøy reiser spørsmål knyttet til både kildebruk og krav om selvstendighet. Som hovedregel er det et krav om at svaret på eksamen er en selvstendig produsert tekst. Dette gjør at å levere en tekst som helt eller delvis er generert vil regnes som fusk, med mindre det er sitert på redelig måte. Les mer på nettsiden Reielegheit og fusk.

Om fusk og redelighet i ph.d.-utdanningen

Akademisk redelighet er en overordnet norm som styrer hva som er forventet av også UiB sine ph.d.-kandidater. For ph.d.-kandidater består ph.d.-programmet av to deler, opplæringsdelen og avhandlingsarbeidet. Eksamener i opplæringsdelen er underlagt de samme juridiske rammer, regelverk for plagiat og fusk, og for kildeføring som studenter. Arbeidet med avhandlingen er et forskningsarbeid som er underlagt de samme rammene for vitenskapelig redelighet som all forskning ved UiB.

For mer informasjon om vitenskapelig redelighet, se Forskningsetikk.

Kildeføring av generative modeller  

Generelt skal det refereres til programvare brukt i akademisk arbeid når programvaren har innvirkning på resultater, analyser eller funn som presenteres. KI -verktøy skal regnes som programvare og ikke som medforfatter da enhver tilskrivning av forfatterskap medfører ansvar for arbeidet, og KI-verktøy kan ikke ta på seg et slikt ansvar. 

En KI-generert tekst er ikke mulig for andre å gjenskape. I akademiske arbeider bør det derfor fremgå hvordan generatoren er brukt. For eksempel tidspunkt og omfang, og hvordan resultatet ble inkludert i teksten. Ofte er det aktuelt å gjengi det som er skrevet inn i chatten.  Ved et langt svar fra tekstgeneratoren kan dette legges som vedlegg. Vær oppmerksom på at det kan finnes fagspesifikke føringer for hvordan bruken skal dokumenteres da KI-verktøy kan ha ulik bruk i ulike fag.

Eksempelet under viser hvordan man refererer til KI-generert tekst i referansestilen APA7:  

  • I teksten: tekst (OpenAI, 2023) 
  • I referanselisten: OpenAI. (2023). ChatGPT (20. april-versjon) [Stor språkmodell]. https://chat.openai.com/. 

DIGI-emner ved UiB 

For studenter som ønsker mer digital forståelse, kunnskap og kompetanse tilbyr UiB små emner som er tilgjengelige for alle studenter uavhengig av hvilket fag man studerer. Les mer om dette tilbudet på nettsidene til DIGI

Informasjon fra fakultetene 

Flere fakulteter har utviklet egne veiledere for bruk av språkmodeller og annen kunstig intelligens. Universitetet i Bergen åpner for at forskjellige fagmiljø vurderer bruken av slike verktøy forskjellig, og studentene må orientere seg om føringene i det aktuelle studiet.