Frygt for fejl og bias ved Danske Regioners brug af machine learning

Allerede fra slut næste år skal praktiserende læger ifølge Danske Regioner til at benytte et nyt elektronisk system til understøttelse af elektronisk lægemiddelordination, som er baseret på blandt andet machine learning, der trænes med eksempeldata fra patientjournaler.

Praktiserende læge, Thomas Birk Kristiansen er kritisk og frygter fejl i journaldata og, at det nye beslutningsværktøj truer armslængdeprincippet mellem medicinalindustrien og lægers diagnostik og ordination. Det fremgår af en artikel i British Medical Journal.

Danske Regioner har efter en udbudsrunde overladt det til lægemiddelindustrien i form af Dansk Lægemiddelinformation, DLi, og et privat firma, Trifork at udarbejde det nye elektroniske værktøj, som de to firmaer lover færdigt frem mod udgangen af 2020. Dette skal ske efter en pilotimplementeringsfase i udvalgte lægepraksis i Region Nordjylland, som er projektledende på det nationale plan. Baggrunden for at indføre beslutningsværktøj er håbet om, at det vil kunne minimere medicineringsfejl. 

”Det vil give lægerne et endnu bedre beslutningsgrundlag og dermed forhindre medicineringsfejl til glæde for patienterne,” forklarer Klaus Larsen, IT-direktør i Region Nordjylland.

Men denne optimisme omkring effekten af de nye algoritmer til almen praksis, er praktiserende læge Thomas Birk Kristiansen forbeholden overfor. Han har offentliggjort sine bekymringer i British Medical Journal fordi han frygter, at beslutningsstøtteværktøjet, hvor man automatiserer erfaringer fra tidligere patientforløb, (så læger får elektroniske bud på diagnoser og dosering af medicin), vil kunne skabe helt nye fejlkilder:

”Vi ved jo godt, at journaler er fulde af fejl, forkerte informationer og fejlskrivninger som oftest kan være af ubetydelig karakter i forhold til den enkelte patients virkelige liv, men som altså er fejl. Så min bekymring er, at de kommende algoritmer, som baseres på machine learning, kan påvirkes af fejlene i patientjournalerne. Det gælder både helt tilfældig fejl, men også mere systematiske fejl, såkaldt bias, som det også ses indenfor forskning når medicinalindustrien er sponsor. Fejlene kan først påvirke selve træningen af algoritmerne, men også siden når disse skal bruges i patientbehandlingen, for her vil fejl i en patients data selvfølgelig kunne føre til fejl i algoritmens konklusioner og forudsigelser. Det betyder, at selv banale journalfejl hos en konkret patient kan få store konsekvenser,” siger Thomas Birk Kristiansen og uddyber:

”Når man bruger store datasæt som træning, vil fejl såsom forkerte diagnoser eller fejlregistrerede symptomer sandsynligvis ikke betyde så meget, da tilfældige fejl som disse distribueres jævnt. Men når du refokuserer fra gruppe til individ, kan sådanne fejl i høj grad påvirke algoritmernes forudsigelser. Endvidere tyder noget på, at selv mindre ændringer i træningsdata i nogle tilfælde kan forårsage betydelig instabilitet i en maskinlæringsalgoritme,” siger Thomas Birk Kristiansen, der mener, at en forudsætning for at kunne bruge journaldata til machine learning og til efterfølgende behandlings- og diagnostisk beslutningsstøtte må være, at det bliver muligt at rette i journaler samt at der bliver afsat ressourcer af til at rense journalerne for fejl. 

Men Thomas Birk Kristiansen er ikke kun bekymret for journalfejls betydning for sit og kollegaernes fremtidige arbejde. Han undrer sig også over, at hans arbejdsgiver, Danske Regioner, har tilladt industrien at komme så langt ind i hans klinik, som de nu kommer med det nye værktøj. Nemlig helt ind i hans kerneydelser ved hjælp af industriens rolle som medudvikler af de algoritmer, som han bedes bruge i sin fremtidige diagnostik, lægemiddelordination, medicingennemgang og ikke mindst diagnostisk overvågning af udviklinger i patienternes helbred: 

”Det er muligt, at der er nogen, der synes, jeg ser spøgelser ved højlys dag. Men faktum er, at Promedicin.dk er ejet af Lægemiddelindustrien, som har mulighed for at bygge bias ind i algoritmerne. Bias, der for eksempel vil kunne påvirke diagnostisk tidspunkt for at starte medicinering af en livsstilssygdom i kraft af algoritmer. Bias, som lægen ikke nødvendigvis kan gennemskue, eller som måske skjuler sig i selve den måde brugerfladen er udformet på,” siger han og fortsætter:

” Jeg siger ikke, at de gør det. Det jeg siger er, at de har fået muligheden. Og det undrer mig, for vi har her i landet en regel om, at medicinalindustrien ikke må eje lægeklinikker. Og jeg synes, at industrien på tilsvarende vis også bør forhindres i at have mulighed for at skabe bias i kunstig intelligent og personaliseret medicin og således understøtte deres eget salg ved at være med til at forme maskinlæringsalgoritmer.”