Neurotechnologie zwischen Vision und Verantwortung: Ethik, Risiken und Governance

Neurotechnologie zwischen Vision und Verantwortung: Ethik, Risiken und Governance

Tagung, 27. Oktober 2025, Berlin

Die Tagung zu den ethischen und rechtlichen Implikationen der Neurotechnologie beleuchtete intensiv die Chancen und Risiken dieser dynamischen Technologien. Bereits in der Einführung wurde betont, dass Neurotechnologien nicht nur die Medizin, sondern auch unser gesellschaftliches Zusammenleben und sicherheitspolitische Fragestellungen grundlegend verändern könnten. Es sollten Fragen im Mittelpunkt stehen, ob Forschende beeinflussen können und ob ihre Ergebnisse und Methoden für Überwachung, Manipulation und andere Missbrauchsszenarien genutzt werden könnten. Damit geht die Überlegung einher, ob Missbrauchsszenarien überhaupt minimiert werden könnten, ohne die Forschungsfreiheit einzuschränken, und ob es Forschungsfragen gäbe, die besser nicht adressiert werden sollten.
Der Ausschussvorsitzende und Vizepräsident der Leopoldina Thomas Lengauer stellte zunächst den Gemeinsamen Ausschuss zum Umgang mit sicherheitsrelevanter Forschung von DFG und Leopoldina vor und erläuterte, dass sich das Gremium regelmäßig Forschungsbereichen der Wissenschaft widme, deren Missbrauchspotentiale einer öffentlichen Debatte bedürfen, obwohl gleichwohl der Nutzen offensichtlich sei – so auch der Neurotechnologie. Der Mitveranstalter Philipp Kellmeyer von der Universität Mannheim und dem Universitätsklinikum Freiburg hob in seiner fachlichen Einführung hervor, dass die Balance zwischen Innovation und Verantwortung in der Neurotechnologie eine der zentralen Herausforderungen sei. Besonders im Fokus stünden ethische Konflikte sowie die Gefahr eines möglichen Missbrauchs der Forschungsergebnisse.
Andrea Kübler von der Universität Würzburg eröffnete die Vortragsreihe mit einem umfassenden Überblick über Brain-Computer-Interfaces (BCIs). Sie zeigte auf, wie diese Technologien Menschen mit schwersten Behinderungen helfen könnten, wieder zu kommunizieren oder Geräte zu steuern. Jedoch wies Kübler auch auf die ethischen Risiken hin: Die Erkennung und Nutzung mentaler Zustände, die oft schwer zu definieren und individuell unterschiedlich seien, könnten missbraucht werden, um Menschen zu überwachen oder sie in ihrer Autonomie einzuschränken. Sie betonte, dass ein verantwortungsvoller Umgang mit BCIs unerlässlich sei, um die Privatsphäre der Nutzer zu schützen und eine Diskriminierung bestimmter Gruppen zu vermeiden.
Ulf Ziemann vom Universitätsklinikum Tübingen widmete sich der therapeutischen Hirnstimulation und stellte Technologien wie transkranielle Magnetstimulation und tiefe Hirnstimulation vor. Während diese Methoden bahnbrechende Fortschritte in der Behandlung neurologischer und psychiatrischer Erkrankungen ermöglichten, sprach er auch die Risiken an. So könnten invasive Verfahren, die direkt ins Gehirn eingreifen, auch zu schädlichen Zwecken genutzt werden, beispielsweise zur Manipulation von Gedanken oder Verhaltensweisen. Ziemann betonte, dass in diesem Bereich die ethische Verantwortung besonders groß sei, da die Auswirkungen auf die Psyche der Patienten oft schwer vorhersehbar seien.
Der technische Leiter (CTO) der Firma CorTec Martin Schüttler lenkte den Blick auf den wachsenden Bereich der verbraucherorientierten Neurotechnologie („consumer neurotech“). Er zeigte, wie neurotechnologische Geräte wie EEG-gestützte Kopfhörer oder Schlafbänder zunehmend in den Alltag Einzug hielten. Diese Geräte versprächen, mentale Zustände zu erkennen und zu optimieren, beispielsweise durch Konzentrations- oder Entspannungstraining. Schüttler warnte jedoch: Viele dieser Geräte sammelten und verarbeiteten hochsensible Daten, ohne dass klare Standards hinsichtlich Datenschutz und Datenverwertung existierten. Er betonte, dass die Gefahr von Datenmissbrauch groß sei, insbesondere wenn Anbieter diese Daten für kommerzielle oder andere undurchsichtige Zwecke nutzten. Auch die Möglichkeit, solche Technologien zur Überwachung am Arbeitsplatz oder in Bildungseinrichtungen einzusetzen, werfe erhebliche ethische Bedenken auf.
Die Diskussionen nach den Vorträgen konzentrierten sich auf die ethischen und rechtlichen Implikationen dieser Technologien. Zugleich wurde nach einer möglichen militärischen Anwendung der beschriebenen Technologien gefragt, was derzeit den Vortragenden für Deutschland nicht bekannt sei. In den USA gebe es jedoch durchaus Entwicklungen für militärische Zwecke. Zugleich sei dies aber nicht immer praktikabel; es sei daher noch sehr viel einfacher, beispielsweise eine Drohne manuell statt mit einem BCI zu steuern.
Die Juristin der Universität Heidelberg Fruszina Molnár-Gábor arbeitete in ihrem Vortrag heraus, dass Neurodaten eine neue Kategorie sensibler Daten darstellten, die besonders geschützt werden müssten. Sie argumentierte, dass die bestehenden Datenschutzregelungen möglicherweise nicht ausreichten, um den besonderen Charakter dieser Daten zu berücksichtigen. Neurodaten könnten nicht nur Rückschlüsse auf die Gesundheit einer Person, sondern auch auf ihre Gedanken und Absichten zulassen. Dies eröffne potenziellen Missbrauchsszenarien, etwa durch diskriminierende Algorithmen oder die Manipulation von Verhalten.
Der Rechtsphilosoph Christoph Bublitz, Universität Hamburg, betonte, dass das Recht auf Gedankenfreiheit eine absolute Grenze für neurotechnologische Eingriffe darstellen müsse. Er argumentierte, dass der Schutz der Psyche und der inneren Gedankenwelt vor unbefugten Eingriffen ein fundamentales Menschenrecht sei. Bublitz plädierte für die Einführung sogenannter Freedom of Thought Impact Assessments, die systematisch untersuchen sollten, wie neurotechnologische Geräte die Gedankenfreiheit beeinflussen könnten. Er warnte, dass insbesondere invasive Technologien, die ohne Zustimmung in das Denken eines Menschen eingreifen könnten, eine rote Linie überschreiten würden.
Philipp Kellmeyer beleuchtete die sicherheitspolitischen Implikationen der Neurotechnologie. Er zeigte auf, wie Technologien wie BCIs oder Hirnstimulation im militärischen und polizeilichen Kontext eingesetzt werden könnten, beispielsweise zur Überwachung, zur Verbesserung der Leistungsfähigkeit von Soldaten oder sogar als potenzielle Waffen. Besonders problematisch sei, dass viele dieser Technologien auch in autoritären Staaten eingesetzt werden könnten, um Menschen zu kontrollieren und ihre Freiheiten einzuschränken. Kellmeyer betonte, dass es dringend internationaler Regelungen bedürfe, um solche Missbrauchsszenarien zu verhindern.
Während der Break-Out-Session diskutierten die Tagungsgäste gemeinsam mit drei Experten darüber, welche Missbrauchsszenarien im Bereich Brain-Computer-Interfaces, bei Neurostimulationsverfahren und in der Consumer Neurotech schon realistisch und welche noch utopisch seien.
Anschließend diskutierte ein Panel über Leitplanken, die sich Forschung und Forschungsförderung setzen sollten, um möglichen schädlichen und missbräuchlichen Anwendungen der Neurotechnologie vorzubeugen. Hierbei wurde unter anderem die aktuell verabschiedete UNESCO-Empfehlung zur Ethik der Neurotechnologie vorgestellt. Silja Vöneky, Völkerrechtlerin der Universität Freiburg, zeigte sich kritisch gegenüber den UNESCO-Empfehlungen und wies darauf hin, dass viele der gewählten Formulierungen, auch wenn sie nur soft laws seien, ethische Standards, auch in Deutschland und Europa, faktisch unterminieren könnten, gerade was die Forschung an Nicht-Einwilligungsfähigen und den Datenaustausch dazu betreffen könnte. Herr Kellmeyer hingegen sah in den Empfehlungen einen wichtigen Schritt, um das Thema auf die globale Agenda zu setzen und eine Grundlage für weiterführende Diskussionen zu schaffen. Außerdem wurden vom Panel konkrete Herausforderungen für Forschungseinrichtungen und Unternehmen thematisiert. Britta Sigmund, Vizepräsidentin der DFG und Co-Vorsitzende des Gemeinsamen Ausschusses, betonte, dass die Einbeziehung von KEFs (Kommissionen für Ethik sicherheitsrelevanter Forschung) ein wichtiger Schritt sei, um Forschende bei der ethischen Bewertung ihrer Projekte zu unterstützen. Martin Schüttler wies darauf hin, dass Unternehmen oft mit ethischen Dilemmata konfrontiert seien, etwa wenn Anfragen aus Ländern mit fragwürdigen Menschenrechtsstandards kämen. Hier seien klare Leitlinien und eine stärkere Kommunikation zwischen Wissenschaft und Industrie notwendig.
Die Tagung zeigte eindrücklich, dass Neurotechnologien nicht nur eine faszinierende technologische Entwicklung darstellen, sondern auch eine Vielzahl ethischer, rechtlicher und gesellschaftlicher Fragen aufwerfen. Die Teilnehmenden waren sich einig, dass es dringend einer stärkeren internationalen Zusammenarbeit, klarer gesetzlicher Regelungen und einer breiten gesellschaftlichen Debatte bedürfe, um die Chancen dieser Technologien verantwortungsvoll zu nutzen und Missbrauch zu verhindern.

© Markus Scholz für die Leopoldina
© Markus Scholz für die Leopoldina
© Markus Scholz für die Leopoldina
© Markus Scholz für die Leopoldina
© Markus Scholz für die Leopoldina