Kann Brain Scans die K├Âpfe der Menschen lesen?

Willkommen in der Zukunft: Wissenschaftler können nun in das Gehirn schauen und Videos von dem, was eine Person gesehen hat, basierend auf ihrer Gehirnaktivität rekonstruieren.

Die rekonstruierten Videos könnten als eine primitive und etwas verschwommene Form des Gedankenlesens angesehen werden, obwohl Forscher Jahrzehnte damit zugebracht haben, alles so persönlich wie Erinnerungen oder Gedanken zu entschlüsseln, wenn so etwas überhaupt möglich ist. Gegenwärtig benötigt die Technik des Gedankenlesens mächtige Magnete, Stunden und Millionen von YouTube-Videos.

Aber auf lange Sicht könnten ähnliche Methoden verwendet werden, um mit Schlaganfallpatienten oder Koma-Patienten zu kommunizieren, die in einem "eingeschlossenen" Zustand leben, sagte Studienforscher Jack Gallant, ein Neurowissenschaftler an der Universität von Kalifornien, Berkeley.

"Die Idee ist, dass sie einen Film von dem, worüber sie sprechen möchten, visualisieren könnten, und das könntest du entschlüsseln", sagte Gallant gegenüber LiveScience.

Entschlüsselung des Gehirns

Gallants Team hat das Gehirn zuvor entschlüsselt. Im Jahr 2008 haben die Forscher berichtet, dass sie ein Computermodell entwickelt haben, das Gehirnaktivitätsdaten von der funktionellen Magnetresonanztomographie (fMRT) aufnimmt, sie mit einer Bibliothek von Fotos vergleicht und das Foto ausspuckt, das die Person am wahrscheinlichsten gesehen hat wenn die Messungen der Gehirnaktivität durchgeführt wurden. Mit dieser Technik konnte das richtige Foto in neun von zehn Fällen ausgewählt werden.

Aber Video statt Standbilder zu rekonstruieren ist viel härter, sagte Gallant. Das liegt daran, dass fMRI die Aktivität von Gehirnzellen nicht direkt misst. Es misst den Blutfluss zu aktiven Bereichen des Gehirns. Dieser Blutfluss passiert viel langsamer als die zippy Kommunikation der Milliarden von Neuronen im Gehirn.

So baute Gallant und der Postdoktorand Shinji Nishimoto ein Computerprogramm auf, um diese Lücke zu schließen. Teil des Programms war ein Modell von Tausenden von virtuellen Neuronen. Die andere Hälfte war ein Modell dafür, wie die Aktivität von Neuronen den Blutfluss zu aktiven Regionen des Gehirns beeinflusst. Mithilfe dieser virtuellen Brücke konnten die Forscher Informationen aus dem langsamen Blutfluss in die schnelle Sprache der Neuronenaktivität übersetzen.

Filmabend ... für die Wissenschaft

Als nächstes kam der spaßige Teil: Drei Freiwillige, alle Neurowissenschaftler des Projekts, sahen sich stundenlange Videoclips in einer fMRT-Maschine an. Externe Freiwillige wurden wegen des hohen Aufwands nicht eingesetzt, und weil die Neurowissenschaftler hochmotiviert waren, sich auf die Videos zu konzentrieren, sorgten sie für bessere Gehirnbilder.

Gallant und seine Kollegen nutzten die Bilddaten des Gehirns und bauten ein "Wörterbuch" auf, das die Gehirnaktivitätsmuster mit einzelnen Videoclips verknüpfte, so wie es ihre Studie aus dem Jahr 2008 mit Bildern getan hatte. Dieser Gehirnfilm-Übersetzer konnte den Film identifizieren, der 95 Prozent der Zeit ein bestimmtes Gehirnsignal erzeugte, plus oder minus eine Sekunde im Clip, wenn 400 Sekunden Clips zur Auswahl standen. Selbst wenn das Computermodell 1 Million Sekunden Clips erhielt, wählte es die richtige Sekunde mehr als 75 Prozent der Zeit aus.

Mit diesem präzisen Brain-to-Movie-Clip-Wörterbuch haben die Forscher eine neue Ebene der Herausforderung eingeführt. Sie gaben dem Computermodell 18 Millionen Sekunden neuer Clips, die alle zufällig aus YouTube-Videos heruntergeladen wurden. Keiner der Versuchsteilnehmer hatte jemals diese Clips gesehen.

Die Forscher leiteten dann die Gehirnaktivität der Teilnehmer durch das Modell und befahlen ihr, die Clips auszuwählen, die wahrscheinlich jede Sekunde der Aktivität auslösen würden. Das Ergebnis war eine von Grund auf rekonstruierte visuelle Erfahrung des Menschen mit dem Film. Mit anderen Worten, wenn die Teilnehmer einen Clip gesehen hatten, der Steve Martin auf der rechten Seite des Bildschirms zeigte, konnte das Programm ihre Gehirnaktivität betrachten und den YouTube-Clip aussuchen, der am ehesten wie Martin auf der rechten Seite des Bildschirms aussah .

Sie können die Videoclips hier und hier sehen. Im ersten Clip befindet sich das Originalvideo auf der linken Seite, während auf der rechten Seite ein Durchschnitt der oberen 100 Clips angezeigt wird, die der Gehirnaktivität am nächsten waren. (Laut Gallant waren Mittelwerte notwendig und auch der Grund für die Unschärfe, denn selbst 18 Millionen Sekunden an YouTube-Videos würden nicht annähernd die gesamte visuelle Vielfalt in den Original-Clips erfassen.) Das zweite Segment des Videos zeigt die Originalclip oben und Rekonstruktionen unten. Die Spalte ganz links ist eine durchschnittliche Rekonstruktion, während die übrigen Spalten einzelne Videos sind, die vom Programm als am nächsten zum Original ausgewählt wurden.

Einen Gedankenfilm ansehen

Die durchschnittlichen Videos sehen wie gespenstische, aber erkennbare Faksimiles der Originale aus. Die Unschärfe ist hauptsächlich darauf zurückzuführen, dass die YouTube-Clip-Bibliothek so begrenzt ist, dass genaue Übereinstimmungen schwierig sind, so Gallant.

"Achtzehn Millionen Sekunden ist wirklich ein verschwindend kleiner Bruchteil der Dinge, die du in deinem Leben sehen könntest", sagte er.

Die Gedankenlesemethode beschränkt sich nur auf die grundlegenden visuellen Bereiche des Gehirns, nicht auf die höher funktionierenden Denk- und Vernunftzentren wie den frontalen Kortex. Gallant und seine Kollegen arbeiten jedoch daran, Modelle zu entwickeln, die andere Hirnareale nachahmen. Kurzfristig könnten diese Modelle verwendet werden, um zu verstehen, wie das Gehirn funktioniert, ähnlich wie Umweltwissenschaftler Computermodelle der Atmosphäre verwenden, um Wetter und Klima zu verstehen.

Langfristig besteht die Hoffnung, dass eine solche Technologie genutzt werden könnte, um Gehirn-Maschine-Schnittstellen zu bauen, die es Menschen mit Hirnschäden ermöglichen würden, zu kommunizieren, indem sie über einen Computer denken und diese Gedanken übersetzen lassen, so Gallant. Potenziell könnte man Gehirnaktivität während Träumen oder Halluzinationen messen und dann diese phantastischen Zustände auf der großen Leinwand beobachten.

Wenn diese Vorhersagen wahr werden, könnte es ethische Probleme geben, so Gallant.Er und seine Kollegen lehnen es entschieden ab, die Gehirnaktivität eines Menschen ohne ihr Wissen und ihre Zustimmung zu messen. Im Moment ist das Abhören von Gehirnen jedoch weit hergeholt, wenn man bedenkt, dass die Technik eine große, geräuschvolle fMRT-Maschine und die volle Kooperation des Subjekts erfordert.

Nicht nur das, sondern auch das Lesen von Gedanken, Erinnerungen und Träumen sei nicht so einfach wie das Dekodieren einfacher visueller Erfahrungen, sagte Gallant. Die Verbindung zwischen der Art und Weise, wie unser Gehirn verarbeitet, was wir sehen, und wie es verarbeitet, was wir uns vorstellen, ist nicht klar.

"Dieses Modell wird ein Ausgangspunkt sein, um visuelle Bilder zu dekodieren", sagte Gallant. "Aber wie nah am Endpunkt ist schwer zu sagen."

Schau das Video: Grundlagen und Unterscheidungsmerkmale zu wichtigen MRT Sequenzen

Lassen Sie Ihren Kommentar