Deltar i KI-senteret TRUST
Onsdag 11. juni annonserte statministeren at TRUST – Norwegian Centre for Trustworthy AI – blir ett av de seks nye KI-sentrene i Norge. TRUST er et stort nasjonalt konsortium av forskningsinstitusjoner og forskere, som gjennom transdisiplinær forskning skal bidra til at Norge ligger i front når det gjelder utvikling og bruk av forsvarlige, inkluderende og robuste KI-systemer.
Hovedinnhold
Forskergruppen i erstatningsrett og forsikringsrett ved Det juridiske fakultet, Universitetet i Bergen, gleder seg til å være en del av det største juridiske miljøet innenfor KI-forskning i Norge.
Forskerne deltar i et intensitvt forskningsssamarbeid med andre vitenskapsdisipliner innenfor samfunnsvitenskap, naturvitenskap og filosofi. I Bergen skal vi særlig ha et nært samarbeid med Canadas KI-institutter, Vector Institute, the Schwartz Reisman Institute, Acceleration Consortium, IVADO og AMII, samt European Centre of Tort and Insurance Law, med direktør og professor Ernst Karner i spissen.
Forskerne skal også delta i klynger med norske brukerpartnere hvor tverrfaglige løsninger kan testes på de 44 partnernes driftsområder.
Erstatningsrettslige og forsikringsrettslige problemstillinger vil bli utforsket i de fleste av TRUST sine 14 forskningsområder, herunder:
- Tilordning av ansvar:
Vi skal jobbe tverrfaglig for å analysere hvordan tekniske metoder kan støtte juridiske krav til forklaring og ansvarlighet, blant annet i erstatningsretten og under EU's AI-forordning (produktsikkerhetsregler).
- Årsakssammenheng i KI-systemer:
Vi skal bidra til å analysere hvordan man kan bevise faktisk årsak (ikke bare korrelasjon) mellom prosessene i AI-systemer og skader – noe som er avgjørende for erstatningsansvar. Dette inkluderer nye metoder for å oppfylle juridiske krav til bevis for årsakssammenheng, spesielt ved indirekte diskriminering eller skade.
- Usikkerhetsanalyse:
Vi bidrar til tverrfaglig forskning på hvordan usikkerhet i AI-systemers prediksjoner påvirker hvem som skal holdes juridisk ansvarlige.
- Kvalitetssikring og regeloverholdelse:
Vårt perspektiv er en del av forskning på styringsmekanismer og rammeverk for evaluering av risiko i KI-systemer som skal sikre at de følger etiske og juridiske regler. Dette inkluderer prosesser som gir utviklere og brukere klarhet om hvordan de kan unngå ansvar.
- Digitale tvillinger og hybridmodeller:
Vi forsker på hvordan ansvar, datakontroll og håndheving kan håndteres i komplekse KI-systemer som bruker digitale tvillinger. Disse brukes blant annet til å simulere skadescenarier under utvikling eller overvåkning av KI-systemer.
- Uventet atferd (Emergent Behaviour):
Anne Marie Frøseth er co-leder for et forskningsområde der man skal analysere uønskede eller skadelige virkninger av utilsiktet samhandling mellom KI-systemer. Slik atferd gjør det vanskelig å finne årsaken til skader og anvende alminnelige erstatningsregler. Vi skal analysere svakhetene i gjeldende rett og foreslå nye modeller for ansvarsfordeling som kan fungere på tvers av land.