Autor: Lewis Jackson
Erstelldatum: 11 Kann 2021
Aktualisierungsdatum: 15 Kann 2024
Anonim
Intelligente Prothese durch KI | Odysso - Wissen im SWR
Video: Intelligente Prothese durch KI | Odysso - Wissen im SWR

Wissenschaftler der EPFL (École polytechnique fédérale de Lausanne) in der Schweiz haben die Schaffung einer Weltneuheit für die Roboterhandsteuerung angekündigt - eine neue Art von Neuroprothetik, die die menschliche Kontrolle mit der Automatisierung künstlicher Intelligenz (KI) für mehr Robotergeschicklichkeit vereint, und ihre Forschungsergebnisse in veröffentlicht September 2019 in Natur Maschinenintelligenz .

Neuroprothetik (Neuroprothetik) sind künstliche Geräte, die das Nervensystem durch elektrische Stimulation stimulieren oder verbessern, um Mängel auszugleichen, die sich auf motorische Fähigkeiten, Kognition, Sehen, Hören, Kommunikation oder sensorische Fähigkeiten auswirken. Beispiele für Neuroprothetik sind Gehirn-Computer-Schnittstellen (BCIs), Tiefenhirnstimulation, Rückenmarkstimulatoren (SCS), Blasenkontrollimplantate, Cochlea-Implantate und Herzschrittmacher.


Laut einem Bericht von Global Market Insight vom August 2019 wird der weltweite Wert für Prothesen für die oberen Extremitäten bis 2025 voraussichtlich 2,3 Mrd. USD übersteigen. Im Jahr 2018 erreichte der weltweite Marktwert nach demselben Bericht eine Milliarde USD. Schätzungsweise zwei Millionen Amerikaner sind Amputierte, und laut dem National Limb Loss Information Center werden jährlich über 185.000 Amputationen durchgeführt. Laut dem Bericht machen Gefäßerkrankungen 82 Prozent der US-Amputationen aus.

Eine myoelektrische Prothese wird verwendet, um amputierte Körperteile durch ein extern angetriebenes künstliches Glied zu ersetzen, das von den vorhandenen Muskeln des Benutzers aktiviert wird. Laut dem EPFL-Forschungsteam können die heute verfügbaren kommerziellen Geräte den Benutzern ein hohes Maß an Autonomie verleihen, aber die Geschicklichkeit ist bei weitem nicht so agil wie die intakte menschliche Hand.

„Kommerzielle Geräte verwenden normalerweise ein System mit zwei Aufzeichnungskanälen, um einen einzelnen Freiheitsgrad zu steuern. Das heißt, ein sEMG-Kanal für die Flexion und einer für die Extension “, schrieben die EPFL-Forscher in ihrer Studie. „Das System ist zwar intuitiv, bietet aber wenig Geschicklichkeit. Menschen geben myoelektrische Prothesen mit hoher Geschwindigkeit auf, auch weil sie der Meinung sind, dass das Maß an Kontrolle nicht ausreicht, um den Preis und die Komplexität dieser Geräte zu verdienen. “


Um das Problem der Geschicklichkeit mit myoelektrischen Prothesen anzugehen, verfolgten die EPFL-Forscher einen interdisziplinären Ansatz für diese Proof-of-Concept-Studie, indem sie die wissenschaftlichen Bereiche Neuroengineering, Robotik und künstliche Intelligenz kombinierten, um einen Teil des Motorbefehls für „Shared“ halbautomatisch zu automatisieren Steuerung."

Silvestro Micera, Vorsitzender der Bertarelli Foundation der EPFL für translationales Neuroengineering und Professor für Bioelektronik an der Scuola Superiore Sant'Anna in Italien, ist der Ansicht, dass dieser gemeinsame Ansatz zur Steuerung von Roboterhänden die klinische Wirkung und Verwendbarkeit für eine Vielzahl von neuroprothetischen Zwecken wie das Gehirn verbessern kann -to-machine Interfaces (BMIs) und bionische Hände.

"Ein Grund, warum kommerzielle Prothesen häufiger Klassifikator-basierte Decoder anstelle von proportionalen verwenden, ist, dass Klassifikatoren robuster in einer bestimmten Haltung bleiben", schrieben die Forscher. „Zum Greifen ist diese Art der Steuerung ideal, um ein versehentliches Herunterfallen zu verhindern, opfert jedoch die Benutzerfreiheit, indem die Anzahl der möglichen Handhaltungen begrenzt wird. Unsere Implementierung der gemeinsamen Kontrolle ermöglicht sowohl die Benutzeragentur als auch das Erfassen von Robustheit. Im freien Raum hat der Benutzer die volle Kontrolle über die Handbewegungen, was auch eine willkürliche Vorformung zum Greifen ermöglicht. “


In dieser Studie konzentrierten sich die EPFL-Forscher auf das Design der Softwarealgorithmen - die von externen Parteien bereitgestellte Roboterhardware besteht aus einer am KUKA IIWA 7-Roboter montierten Allegro Hand, einem OptiTrack-Kamerasystem und TEKSCAN-Drucksensoren.

Die EPFL-Wissenschaftler erstellten einen kinematischen Proportionaldecoder, indem sie ein mehrschichtiges Perzeptron (MLP) erstellten, um zu lernen, wie die Absicht des Benutzers zu interpretieren ist, um sie in eine Bewegung der Finger auf einer künstlichen Hand umzusetzen. Ein mehrschichtiges Perzeptron ist ein künstliches neuronales Feedforward-Netzwerk, das Backpropagation verwendet. MLP ist eine Deep-Learning-Methode, bei der sich Informationen in eine Richtung vorwärts bewegen, im Gegensatz zu einem Zyklus oder einer Schleife durch das künstliche neuronale Netzwerk.

Der Algorithmus wird durch Eingabedaten des Benutzers trainiert, der eine Reihe von Handbewegungen ausführt. Für eine schnellere Konvergenzzeit wurde die Levenberg-Marquardt-Methode verwendet, um die Netzwerkgewichte anstelle des Gradientenabfalls anzupassen. Der vollständige Modellierungsprozess war schnell und dauerte für jedes der Probanden weniger als 10 Minuten, wodurch der Algorithmus aus klinischer Sicht praktisch wurde.

"Für einen Amputierten ist es tatsächlich sehr schwierig, die Muskeln auf viele, viele verschiedene Arten zusammenzuziehen, um alle Bewegungen unserer Finger zu steuern", sagte Katie Zhuang vom EPFL Translational Neural Engineering Lab, die die erste Autorin der Forschungsstudie war . „Wir setzen diese Sensoren auf ihren verbleibenden Stumpf, zeichnen sie dann auf und versuchen, die Bewegungssignale zu interpretieren. Da diese Signale etwas verrauscht sein können, benötigen wir diesen Algorithmus für maschinelles Lernen, der diesen Muskeln sinnvolle Aktivitäten entzieht und sie in Bewegungen interpretiert. Und diese Bewegungen steuern jeden Finger der Roboterhände. “

Da die maschinellen Vorhersagen der Fingerbewegungen möglicherweise nicht zu 100 Prozent genau sind, haben die EPFL-Forscher eine Roboterautomatisierung integriert, um die künstliche Hand zu aktivieren und automatisch um ein Objekt herum zu schließen, sobald der erste Kontakt hergestellt ist. Wenn der Benutzer ein Objekt freigeben möchte, muss er lediglich versuchen, die Hand zu öffnen, um die Robotersteuerung auszuschalten, und dem Benutzer die Kontrolle über die Hand zurückgeben.

Laut Aude Billard, Leiter des EPFL-Labors für Lernalgorithmen und -systeme, kann die Roboterhand innerhalb von 400 Millisekunden reagieren. "Ausgestattet mit Drucksensoren entlang der Finger kann es reagieren und das Objekt stabilisieren, bevor das Gehirn tatsächlich erkennen kann, dass das Objekt rutscht", sagte Billard.

Durch die Anwendung künstlicher Intelligenz auf Neuroengineering und Robotik haben die EPFL-Wissenschaftler den neuen Ansatz der gemeinsamen Kontrolle zwischen Maschinen- und Benutzerabsicht demonstriert - ein Fortschritt in der neuroprothetischen Technologie.

Copyright © 2019 Cami Rosso Alle Rechte vorbehalten.

Beliebt Auf Dem Portal

Was sagen dir deine Träume?

Was sagen dir deine Träume?

Quelle: Lalilu2000 / Pixabay Wie chläf t du heutzutage? Wird Ihre nächtliche Wiederher tellung von Träumen unterbrochen, die ie beim Aufwachen verge en? von denen, die dich zum Lä...
Lieben wie du es meinst

Lieben wie du es meinst

E gibt viele Möglichkeiten, wie Men chen in chlechten Beziehung mu tern tecken bleiben. Am grundlegend ten mag e jedoch ein, ich auf geliebte Men chen zu beziehen, al tünde man immer noch vo...