Multiguide er et prosjekt med utspring i nevromedisinske forskningsmiljø ved St. Olav Hospital. Fokus er på nye måter å behandle kronisk hodepine som migrene og clusterhodepine, ved å målrettet injisere botox for å lamme spesifikke nerveclustere. For at behandlingen skal ha virkning er presisjonen på inngrepet helt avgjørende, ned på millimeternivå.
Behandlingen har vist svært gode resultater ved kliniske forsøk, men krever periodiske inngrep som må gjennomføres i en state of the art operasjonssal med omfattende utstyr. Teamet bak Multiguide hadde et ambisiøst mål om å tilgjengeliggjøre behandlingen for flere på sikt, ved å løfte inngrepet ut av operasjonssalen til et poliklinisk miljø. For å lykkes i dette er en av de største barrierene å forenkle navigasjonssystemene som guider kirurgen under inngrepet.
På besøk for å observere i en state-of-the-art operasjonssal
Demonstrasjon av kirurgiske navigasjonssystem med idéhaver Daniel Bratbak
Vi jobbet med å designe et proof of concept for å utforske om det var mulig å gi denne navigasjonstøtten på en håndholdt enhet, hvor informasjonen vises på en skjerm direkte koblet til instrumentet. Dette innebar tydelige prioriteringer og forenklinger fra dagens hardware og skjermer, og utgangspunktet var å kartlegge og forstå prosedyren fra kirurgens ståsted.
Kartlegging av prosedyren med nye verktøy
Inngrepet gjennomføres grovt sett i tre hovedsteg: Først må man lokalisere entry point på pasient og kalibrere utstyr, deretter følge beregnet bane med instrumentet, stoppe på rett sted, justere sikte, og injisere. Underveis gjør man flere vurderinger, og dersom presisjonen ikke er god nok må inngrepet avbrytes og startes på nytt.
Utforskning av ulike prinsipper for å kommunisere informasjon gjennom inngrepet
Vi jobbet med å utforske visuelle metaforer og mentale modeller som kunne underbygge de ulike stegene – fra å vise progresjon og avstand til anbefalte korrigeringer og sjekkpunkter underveis. I tillegg var var det nødvendig at informasjonen kunne formidles helt uten at bruker interagerte med skjermen, og med minimal bruk av tekst.
Vi støtte tidlig på begrensninger med å jobbe med statiske skjermbilder og skisser, siden hovedformålet med appen var å støtte brukeren med å navigere i tre dimensjoner i sanntid. I stedet jobbet vi prototypedrevet fra start, hvor ulike mønstre og konsepter ble satt opp som interaktive prototyper.
Vi jobbet tett med avdeling for Medisinsk teknologi ved SINTEF for å implementere løsningen på deres plattform for kirurgisk bildenavigasjon, CustusX. Dette gjorde det mulig å gjennomføre realistiske tester på “fantomhoder”, og få tilbakemeldinger fra klinikere for å gjøre iterative forbedringer.
Forskningsprosjektet rundt Multiguide ble siden spunnet ut og kommersialisert via Palion Medical, nå en del av Man Science.