Zo communiceert een prothetische hand met onze hersenen

Artificiële handen en armen worden steeds gesofisticeerder. Er wordt in het onderzoek dan ook veel geld gepompt, onder meer door het Amerikaanse leger. Dat slaagt er steeds beter in om zwaargewonde militairen in leven te houden, waardoor er steeds meer veteranen zijn die lichaamsdelen missen. Maar de vraag hoe je zo’n hoogtechnologische arm aanstuurt is een lastige.

Met je andere arm zou, zelfs als je die nog hebt, een beetje onhandig zijn, en ook met andere lichaamsdelen wordt het naarmate de wendbaarheid toeneemt al snel behoorlijk ingewikkeld. Dus pogen wetenschappers al vele jaren om de arm te laten reageren op de goede oude zenuwactiviteit die er oorspronkelijk voor zorgde dat de orders van de hersenen in bewegingen werden omgezet.

De letterlijk meest voor de hand liggende oplossing zijn de zenuwuiteinden in het deel van de arm dat achterbleef. Wetenschappers zijn er al een aantal keer in geslaagd om die zo met de prothese te integreren dat ze enkele eenvoudige bewegingen konden aansturen, ook als ze oorspronkelijk andere spieren aan het werk zetten. Onze hersenen leren snel, zeker als we zien wat we doen.

De ligging en activiteit van de achtergebleven zenuwen verschilt echter van patient tot patient, afhankelijk van het letsel en de manier waarop het behandeld werd en genas. Dus zoeken sommige wetenschappers de instructies voor hun arm liever gewoon bij de bron: onze hersenen. Dat kan met een kapje dat van buitenaf de hersenactiviteit meet, maar dat geeft een vrij onnauwkeurig beeld.

Veel preciezer zijn de patronen die worden afgelezen door een inmiddels op de markt gebrachte chip die in het brein kan worden ingeplant en daar de activiteit van een honderdtal individuele zenuwcellen meet. In 2006 beschreven onderzoekers in Naturehoe ze daarmee de activiteit in de motorische hersenschors van een verlamde man vertaalden naar de bewegingen van een cursor.

Niet slecht, maar het kan nog beter, vonden Richard Anderson, Tyson Afialo en Spencer Kellis van het California Institute of Technology vorige week in Science. Want wat de prothese en de software die haar aanstuurt volgens hen echt moeten weten is niet per se tot welke bewegingen onze motorische hersenschors de spieren in de afwezige arm probeert aan te sporen, maar wel wat daarvan de bedoeling is.

En die globale voorstelling van het doel, het verloop en de gevolgen van bepaalde handelingen ontstaat niet in de motorische hersenschors, maar achteraan de schors van de parietale kwab. Dus plantten de wetenschappers daar twee chips in, een in een gebied dat actief is wanneer we naar een object reiken, de andere in een gebied dat actief wordt wanneer we het te pakken krijgen.

De verlamde man die aan het onderzoek meewerkte vond, wanneer hij de activiteit van een bepaald neuron op het scherm zag, na verloop van tijd telkens manieren om ze te verhogen of te verlagen. Zo werd een cel actief wanneer hij zich inbeeldde dat hij zijn hand naar zijn mond bewoog, maar niet wanneer hij eenzelfde beweging maakte in de richting van zijn oor of zelfs zijn kin.

Een andere cel werd dan weer actiever wanneer hij zich verbeeldde zijn schouder te draaien, en minder actief wanneer hij in zijn gedachten zijn neus aanraakte. Het voordeel van werken met een menselijke proefpersoon, aldus de wetenschappers, is dat die je zulke dingen gewoon allemaal gedetailleerd kan vertellen, wat bij experimenten met apen uiteraard veel moeilijker ligt.

Dankzij de volgens de onderzoekers ‘onwrikbare toewijding’ van de enthousiaste 32-jarige ‘EGS’ (de naam van de man werd niet vrijgegeven) slaagden ze er zo gaandeweg in om ook zonder toelichting uit zijn hersenactiviteit af te lezen waarheen hij zijn arm wilde bewegen, volgens welk traject, en met welke snelheid. Zo konden ze de corresponderende commando’s snel aan de prothese doorspelen.

Daarnaast ontdekten de wetenschappers zowel zenuwcellen die enkel actief waren wanneer EGS in gedachten een van beide armen bewoog als zenuwcellen die onafhankelijk van de gebruikte arm in actie kwamen, zolang het doelwit hetzelfde was. Dat opent perspectieven, hopen de wetenschappers, om zonder botsingen of ongelukken met dezelfde chip beide armen aan te sturen.

Het voordeel van het aflezen van ingebeelde bewegingen en intenties is verder dat ze ook bruikbaar zijn als het toestel dat ze aansturen heel anders werkt dan de ledematen waarover mensen doorgaans beschikken. Van zodra duidelijk dat een in zijn bewegingen beperkte patient pakweg aan zijn neus wil krabben kan daar voor gezorgd worden, ook zonder levensechte prothesearm.

Er is echter nog wel wat werk aan de winkel. Metingen en algoritmes moeten nog verder verfijnd en flink wat flexibeler worden, want de zenuwcellen wisselen regelmatig van rol. Bovendien is voorlopig onbekend hoe lang de chips bruikbaar blijven, en zijn ze vooralsnog niet draadloos, waardoor er een opening blijft die ontstekingsgevaar inhoudt. Verder wordt gewerkt aan een arm die kan ‘voelen’.

Wat de wetenschappers nog niet onderzochten, maar in de toekomst wel willen proberen – beloofd is beloofd – is in hoeverre de chips ook intenties kunnen lezen die niet aan eenvoudige bewegingen gelinkt zijn, zoals het aanzetten van de televisie of het voorverwarmen van de oven. Wie weet vinden we ooit een veilige manier om de gedachte daaraan meteen in daden om te zetten.

Reageer op artikel:
Zo communiceert een prothetische hand met onze hersenen
Sluiten