Künstliche Intelligenz beschreibt basierend auf Hirnscans den Inhalt angeschauter Videos

Kanagawa – Japanischen Forschenden ist es gelungen, mithilfe von Künstlicher Intelligenz (KI) und funktioneller Magnetresonanztomografie (fMRT) aus Gehirnaktivität ganze Sätze zu rekonstruieren, die beschreiben, was eine Person gerade sieht oder sich vorstellt – also Gedanken in Text zu übersetzen. Ihre Ergebnisse stellten sie kürzlich in Science Advances vor (2025; DOI: 10.1126/sciadv.adw1464).
Das Team um Tomoyasu Horikawa von den NTT Communication Science Laboratories in Kanagawa untersuchte 6 Erwachsene, deren Gehirnaktivität während des Betrachtens kurzer Videoclips mittels fMRT aufgezeichnet wurde. Die Videos zeigten ganz unterschiedliche Szenen – Menschen, Tiere, Landschaften oder Objekte in Bewegung – und dienten dazu, die neuronalen Muster zu erfassen, die mit bestimmten Inhalten oder Handlungen verknüpft sind.
Zum Weiterlesen anmelden
Liebe Leserinnen und Leser,
dieser Beitrag ist nur für eingeloggte Benutzer sichtbar.
Bitte melden Sie sich an oder registrieren Sie sich neu.
Mit der kostenlosen Registrierung profitieren Sie von folgenden Vorteilen:
Exklusive Inhalte lesen
Erhalten Sie Zugriff auf nicht öffentliche Inhalte
Diskutieren Sie mit
Werden Sie Teil der Community des Deutschen Ärzteblattes und tauschen Sie sich mit unseren Autoren und anderen Lesern aus. Unser Kommentarbereich ist ausschließlich Ärztinnen und Ärzten vorbehalten.
Anmelden und Kommentar schreiben
Bitte beachten Sie unsere Richtlinien. Der Kommentarbereich wird von uns moderiert.
Diskutieren Sie mit: