У нас вы можете посмотреть бесплатно Unsere Kopfhörer lesen Gedanken mit KI? | SWR Wissen или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
🧠 Ein Forschungsteam der Stanford-Universität hat es geschafft, Gedanken zu lesen! Genauer gesagt: Sie kommen an die „innere Stimme“ ran. Die haben viele Menschen, etwa beim Lesen oder wenn sie sich im Kopf etwas merken müssen. 💬Warum das Ganze? Menschen mit Locked-In-Syndrom, die also vollständig gelähmt sind, können nicht mehr sprechen. Für sie kann diese Forschung lebensverändernd sein. Mithilfe von Gehirn-Computer-Schnittstellen (BCI) und KI soll ihnen ermöglicht werden, wieder mit anderen zu kommunizieren. 🎧 Gleichzeitig kommen immer mehr EEG-Kopfhörer auf den Markt, die Aufmerksamkeit, Stress oder Konzentration messen sollen. Können solche Geräte vielleicht auch schon Gedanken lesen? Moderation & Autorin: Sarah Kron Kamera: Max Leitmeier Ton: Tonio Lausberg Schnitt: Ariel Sages, Daniel Bluhm Grafik: Maximilian Rügamer Produktionsleitung: Isabell Wasmuth Redaktion Bilderfest: Alexandra Seegerer Redaktion SWR: Ella Böhm Leitung SWR: Stefan Busse Eine Produktion von Bilderfest. © SWR 2025 📂 Kapitelmarken 📂 00:00 Intro 01:18 Inneren Monolog entschlüsseln: Geht das? 03:32 Wie teilt man sich mit, wenn man gelähmt ist? 05:40 Wie kommt man an „Sprache“ im Gehirn ran? 07:38 Künstliche Intelligenz 08:34 Sind geheime Gedanken auslesbar? 09:42 Wozu sind EEG-Kopfhörer gut? 11:59 Fazit 🔎📄 Unsere Quellen 📄🔍 📝 [Q1] United States Patent Application Publication. (2023). Biosignal sensing device using dynamic selection of electrodes. Abgerufen am 01.12.2025, von https://image-ppubs.uspto.gov/dirsear... 📝 [Q2] Westphal, A. (2023). Neues Patent: Zeichnen Apple AirPods bald Gehirnströme auf? HIFI.DE. Abgerufen am 01.12.2025, von https://hifi.de/news/neues-patent-zei... 📝 [Q3] Kunz, E. M., et al. (2025). Inner speech in motor cortex and implications for speech neuroprostheses. Cell. 📝 [Q4] Lu, L., et al. (2019). Neural tracking of speech mental imagery during rhythmic inner counting. eLife. 📝 [Q5] Hadian Cefidekhanie, A., et al. (2014). Interaction between articulatory gestures and inner speech in a counting task. The Journal of the Acoustical Society of America. 📝 [Q6] Ayoub, N. (2021). Stephen Hawking Zehn Fakten über die Physik-Legende. FOCUS online. Abgerufen am 01.12.2025, von https://www.focus.de/wissen/weltraum/... 📝 [Q7] Hawking, S. (2017). The theory of the NHS. Journal of the Royal Society of Medicine. 📝 [Q8] Merlot, J. (2018). Stephen Hawking: Wie er seine Sprache verlor – und zurückgewann. DER SPIEGEL. Abgerufen am 01.12.2025, von https://www.spiegel.de/wissenschaft/t... 📝 [Q9] Medeiros, J. (2015). How Intel gave Stephen Hawking a voice. WIRED. Abgerufen am 13.12.2025, von https://www.wired.com/2015/01/intel-g... 📝 [Q10] Silva, A. B., et al. (2022). A neurosurgical functional dissection of the middle precentral gyrus during speech production. Journal of Neuroscience. 📝 [Q11] Liu, J. R., et al. (2025). Speech sequencing in the human precentral gyrus. Nature Human Behaviour. 📝 [Q12] Castellucci, G. A., et al. (2022). A speech planning network for interactive language use. Nature. 📝 [Q13] Li, S., et al. (2025). Evaluating the temporal order of motor and auditory systems in speech production using intracranial EEG. Communications Biology. 📝 [Q14] Moses, D. A., et al. (2021). Neuroprosthesis for decoding speech in a paralyzed person with anarthria. The New England Journal of Medicine. 📝 [Q15] Hojdeger, R., & Faust, A.-M. (2004). Der Prozess der Bewegung: Motorik. In Homunculus-Pflegetherapie (S. 76–97). Springer. 📝 [Q16] Sadava, D., et al. (2019). Cortex (lat. für „Rinde“), engl. cortex. In J. Markl (Ed.), Purves Biologie (10. Aufl.). Springer Spektrum. 📝 [Q17] Willett, F. R., et al. (2023). A high-performance speech neuroprosthesis 📝 [Q18] Stephane, M., et al. (2021). Keeping the inner voice inside the head, a pilot fMRI study. 📝 [Q19] de Guerrero, M. C. M. (2012). Inner speech in second language acquisition. In C. Chapelle (Hrsg.), The Encyclopedia of Applied Linguistics. 📝 [Q20] de Guerrero, M. C. M. (2017). Going covert: Inner and private speech in language learning. 📝 [Q21] Michel, C. M., & Brunet, D. (2019). EEG source imaging: a practical review of the analysis steps. 📝 [Q22] Lees, T., et al. (2023). The effect of hair type and texture on electroencephalography and event-related potential data quality. Psychophysiology. 📝 [Q23] Tan, K., et al. (2021). Deep Learning Based Real-time Speech Enhancement for Dual-microphone Mobile Phones. 📝 [Q24] Healy, E. W., et al. (2025). Perceptual effects of reducing algorithmic latency ... . Danke für die fachliche Unterstützung: Prof. Dr. Surjo Soekadar (Neurotechnologe & Hirnforscher), Dr. Erin Kunz (Neuroingenieurin), Prof. Dr. Dorothee Saur (Neurologin) und Prof. Dr. Dr. Angela Friederici (Neuropsychologin). #BCI