Nieuwe AI kan discriminatie in gezondheidszorg terugdringen
Een grote zorg bij het gebruik van algoritmes in de zorg of bij overheidsdiensten is dat algoritmes onbedoeld discriminerend kunnen werken, door vooroordelen van onderzoekers over te nemen en te versterken. Maar nu hebben onderzoekers een manier gevonden waarop algoritmes bestaande ongelijkheden niet vergroten, maar zelfs kunnen terugdringen. Dat schrijft vaknieuwssite MIT Technology Review.
Het belangrijkste bij dit algoritme is dat het algoritmes niet langer traint om de werkwijze van menselijke experts na te bootsen, zegt universitair hoofddocent Ziad Obermeyer. Hij overzag het onderzoek.
Het onderzoek richtte zich op een klinisch onderzoek naar artritis in de knie, een aandoening die chronische pijn veroorzaakt. Door de ernst van de pijn vast te stellen kunnen artsen de juiste behandeling voorschrijven - fysiotherapie, medicatie of een operatie. Traditioneel gezien doet een radioloog dat door naar een röntgenfoto van de knie te kijken en de pijn in te delen aan de hand van Kellgren-Lawrence, een methode die pijnniveaus vaststelt.
Serieus genomen worden
Uit onderzoek blijkt dat zwarte patiënten vaak op een veel lager pijnniveau worden ingeschaald dan ze zelf aangeven. Dat komt omdat zwarte patiënten vaak meer pijn ervaren terwijl op röntgenfoto’s minder schade te zien is. Artsen dachten dat zwarte patiënten mogelijk hun klachten overdrijven om zo serieus genomen te worden, maar later ontstond de hypothese dat de Kellgren-Lawrencemethode zelf niet goed werkt voor zwarte patiënten. De methode is ontwikkeld aan de hand van studies met alleen maar witte mensen.
Om deze methode te onderzoeken hebben wetenschappers een deep learningmodel ontwikkeld dat de pijn van een patiënt voorspelt aan de hand van een röntgenfoto. Na meerdere experimenten concludeerden de onderzoekers dat het model veel beter pijn kon voorspellen dan de Kellgren-Lawrencemethode. Dat gold voor witte mensen, maar bij zwarte mensen was het verschil nog groter. Volgens Obermeyer laat deze studie zien dat algoritmes een belangrijke bijdrage kunnen leveren bij het ontdekken van nieuwe methoden om onderzoek te doen binnen de geneeskunde, maar dat er ook fouten ontdekt kunnen worden in de methoden die we nu gebruiken.
Fouten blijven bestaan
Hierbij is het interessante aan deze studie dat niet de methode die al lange tijd werd toegepast als absolute waarheid werd vastgehouden, maar dat echt werd gekeken naar de ervaring van de patiënt. Obermeyer: "Als algoritmen alleen maar worden getraind om de handelwijze van menselijke experts na te bootsen, dan blijven bestaande fouten en vooroordelen bestaan. Deze studie laat een glimp zien van wat we allemaal aan kennis kunnen winnen als we dat meer loslaten."