https://frosthead.com

Kan een algoritme longontsteking diagnosticeren?

Longontsteking plaatst elk jaar een miljoen volwassen Amerikanen in het ziekenhuis en doodt 50.000. Als een arts vermoedt dat een patiënt longontsteking heeft, zal hij of zij in het algemeen een röntgenfoto van de borst bestellen. Deze röntgenfoto's moeten natuurlijk door een arts worden geïnterpreteerd. Maar nu hebben Stanford-onderzoekers een algoritme ontwikkeld dat volgens hen pneumonie op röntgenfoto's beter kan diagnosticeren dan ervaren radiologen.

"Het voordeel van een algoritme is dat het kan leren van honderdduizenden röntgenfoto's van de borst en de bijbehorende diagnoses van andere experts", zegt Pranav Rajpurkar, een afgestudeerde student van de Stanford Machine Learning Group, die het onderzoek mede leidde. "Wanneer krijgen radiologen ooit de kans om te leren van de diagnose van honderdduizenden andere radiologen en patronen te vinden in de beelden die tot die diagnoses leiden?"

Het algoritme, genaamd CheXNet, kan ook 13 andere medische aandoeningen diagnosticeren, waaronder emfyseem en pneumothorax (lucht gevangen tussen de long en de borstwand). Het team bouwde het algoritme met behulp van een openbare gegevensset van de National Institutes of Health (NIH), die meer dan 100.000 röntgenfoto's van de borst bevatte gelabeld met 14 mogelijke condities. De dataset is uitgebracht samen met een eerste diagnose-algoritme, dat NIH andere onderzoekers heeft aangemoedigd om verder te gaan.

Rajpurkar en zijn collega's van Machine Learning Group besloten de uitdaging aan te gaan. De onderzoekers lieten vier Stanford-radiologen mogelijke indicaties van longontsteking markeren op 420 van de afbeeldingen. Met behulp van deze gegevens creëerden ze binnen een week een algoritme dat 10 condities nauwkeurig kon diagnosticeren. Binnen een maand kan het algoritme beter presteren dan eerdere algoritmen bij het diagnosticeren van alle 14 voorwaarden. Op dit punt waren CheXNet-diagnoses vaker het eens met een meerderheid van radiologen dan een individuele mening van een radioloog.

Het onderzoek werd deze maand gepubliceerd op de wetenschappelijke preprint-website arXiv .

Andere diagnostische algoritmen hebben onlangs het nieuws bereikt. Canadese en Italiaanse teams hebben beide algoritmen ontwikkeld voor het diagnosticeren van de ziekte van Alzheimer op basis van hersenscans. De verdeling van de plaques in de hersenen die de ziekte kenmerken, is te subtiel voor het blote oog, maar de onderzoekers zeggen dat AI-technologie abnormale patronen kan detecteren. Rajpurkar en zijn collega-onderzoekers van Stanford's Machine Learning Group hebben ook een algoritme ontwikkeld voor het diagnosticeren van hartritmestoornissen en analyseren uren aan gegevens van draagbare hartmonitors. Andere pneumonie-algoritmen zijn ontwikkeld op basis van de NIH-gegevens, maar de Stanford-test is tot nu toe de meest nauwkeurige.

CheXNet kan vooral nuttig zijn op plaatsen waar mensen geen gemakkelijke toegang hebben tot ervaren radiologen, zegt het team. Het kan ook nuttig zijn als een soort triage, waarbij wordt vastgesteld welke gevallen waarschijnlijk aandacht nodig hebben en welke niet. Het team heeft ook een tool ontwikkeld die een kaart van mogelijke longontstekingindicatoren op röntgenstralen produceert, met een handige visuele gids voor artsen.

Hoewel het team optimistisch is over de diagnostische mogelijkheden van CheXNet, zijn ze voorzichtig met de limieten.

"AI is een krachtig hulpmiddel, maar het kost jarenlange ervaring en vele moeilijke uren om te leren hoe het te gebruiken, en het is net zo moeilijk om te bepalen waar we het kunnen gebruiken voor de meest positieve impact, " zegt Rajpurkar.

Hoewel er een aantal diepgaande leeralgoritmen in ontwikkeling zijn, heeft nog geen enkele het rigoureuze test- en goedkeuringsproces doorlopen dat nodig is voor gebruik bij echte patiënten.

Paul Chang, hoogleraar radiologie en vice-voorzitter van de afdeling radiologie van de Universiteit van Chicago, klinkt sceptisch over CheXNet en soortgelijke programma's voor diepgaand leren. Artsen gebruiken al algoritmen om te helpen bij de diagnose van een willekeurig aantal aandoeningen, zegt Chang. Deze algoritmen vertrouwen op een voorgevormd model van hoe de aandoening eruit ziet: kankers zijn bijvoorbeeld groter en pittiger dan goedaardige massa's. Diepgaande leerprogramma's zijn daarentegen bedoeld om uit te zoeken welke functies op zichzelf significant zijn, door enorme hoeveelheden gegevens te kraken. Maar dit betekent ook dat ze de verkeerde signalen kunnen afleggen. Chang geeft het voorbeeld van een diep leeralgoritme dat het verschil heeft geleerd tussen verschillende soorten röntgenstralen: handen, voeten, mammogrammen. Maar onderzoekers ontdekten dat het programma simpelweg had geleerd mammogrammen te herkennen aan het feit dat het hoofdbeeld zich aan de zijkant van de film bevond in plaats van in het midden (aangezien borsten aan de borstwand zijn bevestigd, verschijnen ze op de rand van de film in een mammogramafbeelding. Handen of voeten daarentegen verschijnen in het midden van de röntgenfoto). Het algoritme leerde niets belangrijks over borsten, alleen over hun positie op het scherm.

"Dit is heel vroege tijden", zegt Chang, die erop wijst dat de CheXNet-resultaten niet door vakgenoten zijn beoordeeld. “Diep leren heeft een groot potentieel, maar we zijn in de geneeskunde en in radiologie vaak al vroeg in de hype-cyclus, maar het duurt langer voordat we het hebben overgenomen. We zullen leren hoe we het op de juiste manier kunnen consumeren. ”

Kan een algoritme longontsteking diagnosticeren?