Hjem
Forskergruppe for erstatningsrett og forsikringsrett
Kunstig intelligens

Deltar i KI-senteret TRUST

Onsdag 11. juni annonserte statministeren at TRUST – Norwegian Centre for Trustworthy AI – blir ett av de seks nye KI-sentrene i Norge. TRUST er et stort nasjonalt konsortium av forskningsinstitusjoner og forskere, som gjennom transdisiplinær forskning skal bidra til at Norge ligger i front når det gjelder utvikling og bruk av forsvarlige, inkluderende og robuste KI-systemer.

Gruppebilde med Anne Marie Frøseth, Knut Martin Tande og student Elin Gunnes
Forskerlinjestudent Elin Gunnes skal starte opp masterprosjektet sitt høsten 2025 og vil være tilknyttet TRUST og forskergruppen for erstatnings- og forsikringsrett. Prosjektet hennes handler om kunstig intelligens og erstatningsansvar ved pasientskade. På bildet (f.v.): Anne Marie FrøsethKnut Martin Tande og Elin Gunnes
Foto/ill.:
UiB

Hovedinnhold

Forskergruppen i erstatningsrett og forsikringsrett ved Det juridiske fakultet, Universitetet i Bergen, gleder seg til å være en del av det største juridiske miljøet innenfor KI-forskning i Norge.

Forskerne deltar i et intensitvt forskningsssamarbeid med andre vitenskapsdisipliner innenfor samfunnsvitenskap, naturvitenskap og filosofi. I Bergen skal vi særlig ha et nært samarbeid med Canadas KI-institutter, Vector Institute, the Schwartz Reisman Institute, Acceleration Consortium, IVADO og AMII, samt European Centre of Tort and Insurance Law, med direktør og professor Ernst Karner i spissen. 

Forskerne skal også delta i klynger med norske brukerpartnere hvor tverrfaglige løsninger kan testes på de 44 partnernes driftsområder.

Erstatningsrettslige og forsikringsrettslige problemstillinger vil bli utforsket i de fleste av TRUST sine 14 forskningsområder, herunder: 

  • Tilordning av ansvar:
    Vi skal jobbe tverrfaglig for å analysere hvordan tekniske metoder kan støtte juridiske krav til forklaring og ansvarlighet, blant annet i erstatningsretten og under EU's AI-forordning (produktsikkerhetsregler).
     
  • Årsakssammenheng i KI-systemer:
    Vi skal bidra til å analysere hvordan man kan bevise faktisk årsak (ikke bare korrelasjon) mellom prosessene i AI-systemer og skader – noe som er avgjørende for erstatningsansvar. Dette inkluderer nye metoder for å oppfylle juridiske krav til bevis for årsakssammenheng, spesielt ved indirekte diskriminering eller skade.
     
  • Usikkerhetsanalyse:
    Vi bidrar til tverrfaglig forskning på hvordan usikkerhet i AI-systemers prediksjoner påvirker hvem som skal holdes juridisk ansvarlige.
     
  • Kvalitetssikring og regeloverholdelse:
    Vårt perspektiv er en del av forskning på styringsmekanismer og rammeverk for evaluering av risiko i KI-systemer som skal sikre at de følger etiske og juridiske regler. Dette inkluderer prosesser som gir utviklere og brukere klarhet om hvordan de kan unngå ansvar.
     
  • Digitale tvillinger og hybridmodeller:
    Vi forsker på hvordan ansvar, datakontroll og håndheving kan håndteres i komplekse KI-systemer som bruker digitale tvillinger. Disse brukes blant annet til å simulere skadescenarier under utvikling eller overvåkning av KI-systemer.
     
  • Uventet atferd (Emergent Behaviour):
    Anne Marie Frøseth er co-leder for et forskningsområde der man skal analysere uønskede eller skadelige virkninger av utilsiktet samhandling mellom KI-systemer. Slik atferd gjør det vanskelig å finne årsaken til skader og anvende alminnelige erstatningsregler. Vi skal analysere svakhetene i gjeldende rett og foreslå nye modeller for ansvarsfordeling som kan fungere på tvers av land.