top of page

Ansvarlig forskning

For tiden gjennomfører vi fortsatt en storstilt undersøkelse som involverer mange forskere for å forstå hvordan generativ AI bør brukes på en etisk og ansvarlig måte.

Retningslinje for ansvarlig bruk av Generativ AI i forskning
 

Innledning

Integreringen av generativ kunstig intelligens i forskningsmetoder har et transformativt potensial for vitenskapelige undersøkelser. Det krever imidlertid streng overvåking for å bevare integriteten, nøyaktigheten og de etiske standardene i det vitenskapelige arbeidet. Disse retningslinjene har som mål å etablere et rammeverk for ansvarlig bruk av generativ AI i ulike forskningsfaser.

 

1. Omfang av bruk

  • Tillatt bruk: Forskere oppfordres til å bruke generativ AI til oppgaver som dataanalyse, litteratursøk og -kartlegging, korrekturlesing, formatering, oppretting av stimuli og andre støttefunksjoner som øker produktiviteten uten å undergrave grunnleggende forskningsoppgaver*.

*Denne typen oppgaver er kognitivt krevende og utmattende, og innebærer repeterende og monotone aktiviteter som ikke byr på mange kreative eller nye utfordringer. Det krever vedvarende mental anstrengelse og oppmerksomhet på detaljer, noe som fører til utmattelse uten at det stimulerer til intellektuelt engasjement eller innovasjon.

 

  • Forbudt bruk: Generativ KI må ikke erstatte forskernes primære intellektuelle oppgaver, som formulering av forskningsspørsmål, primærskriving, tolkning av resultater og kritisk analyse. I tillegg bør ikke AI-genererte bilder og multimedier brukes direkte i de endelige forskningsresultatene, med mindre det er eksplisitt tillatt av tidsskriftet og relevant for forskningsdesignet.

 

2. Offentliggjøring og åpenhet

  • Obligatorisk offentliggjøring: All bruk av generativ kunstig intelligens må offentliggjøres eksplisitt i forskningsmanuskripter, særlig i metodedelen. Dette innebærer blant annet at de spesifikke rollene og resultatene til AI-verktøyene som brukes, må beskrives i detalj.

  • Erklæring om AI-bidrag: Selv om generativ AI ikke kan krediteres som forfatter, må bruken av AI i forskningsprosessen anerkjennes for å opprettholde åpenhet overfor fagfellevurderere, tidsskriftredaktører og det bredere vitenskapelige samfunnet.

 

3. Overvåking og verifisering

  • Menneskelig tilsyn: Alle faser av forskning som involverer generativ KI, må overvåkes av menneskelige forskere for å sikre arbeidets validitet og integritet. Forskerne er ansvarlige for kritisk vurdering og verifisering av alt AI-generert innhold.

  • Fagfellevurdering og redigering: De fleste akademiske tidsskrifter forbyr bruk av generativ AI i fagfellevurderingsprosessen. Innsending av upubliserte manuskripter til generative AI-plattformer kan føre til datalekkasje. Vi fraråder derfor å bruke generativ AI til manuskriptgjennomgang.

 

4. Etiske betraktninger

  • Personvern og datasikkerhet: Forskere må ta hensyn til personvernspørsmål, særlig i studier som involverer sensitive eller personlige data, og sørge for at AI-verktøyene er i samsvar med alle gjeldende personvernforskrifter.

  • Unngå feilinformasjon: Det må sørges for å forhindre spredning av feilinformasjon gjennom grundig verifisering av AI-generert innhold og kryssjekking av AI-foreslåtte sitater og data.

 

5. Kontinuerlig læring og tilpasning

  • Opplæring og utvikling: Forskere bør kontinuerlig oppdatere kunnskapen sin om generativ AIs muligheter og begrensninger.

 

Disse retningslinjene vil bli gjennomgått med jevne mellomrom for å tilpasse seg teknologiske fremskritt og utviklingen av forskningsetiske standarder. De har som mål å støtte det vitenskapelige samfunnet i utforskningen av fordelene med kunstig intelligens, samtidig som de grunnleggende prinsippene om forskningsintegritet og åpenhet ivaretas.

 

16. april 2024

Bruk av LLM-er i fagfellevurdering er forbudt for å forhindre datalekkasje..jpg
bottom of page