Wikiversity:Fellow-Programm Freies Wissen/Einreichungen/ALPACA – Automated Labelling and Parcellation of Auditory Cortex Areas
ALPACA – Automated Labelling and Parcellation of Auditory Cortex Areas[Bearbeiten]Projektbeschreibung[Bearbeiten]Auch wenn die Forschung im Bereich der auditorischen Neurowissenschaften (AN), besonders in der Bildgebung, im Verlauf der letzten Jahre eine immense Weiterentwicklung verzeichnen konnte, sind vergleichsweise grundlegende Prinzipien wie z.B. Lokalisation, Struktur, Organisation und Funktion des auditorischen Cortex (AC) bis heute nicht hinreichend geklärt. Als mögliche Ursachen für diesen Sachverhalt sind neben erschwerten Untersuchungsbedingungen im Bereich der auditorischen Verarbeitung (AV) (im Vergleich zur visuellen) mittels neurowissenschaftlicher bildgebender Verfahren, Nutzen von kostenpflichtiger und nicht zugänglicher Software/Codes in früheren Studien, mangelnder Kollaborationen, sowie Wissenstransfer, vor allem die Interaktionen dieser Faktoren zu nennen. Daraus resultierend ergibt sich z.B., auch in Bezug auf den AC (vor allem seiner Lokalisation, Parzellierung und Definition) eine Vielzahl an experimentellen Protokollen und variierenden Ergebnissen, welche eine geringe Reproduzierbarkeit und Reliabilität aufweisen. Um diese Problematik aufzugreifen und dadurch die Grundlagen für die neurowissenschaftliche Untersuchung der AV weiter zu verbessern und voranzubringen, setzt das hier vorgestellte Projekt an der bestehenden Forschungslage und den genannten möglichen Schwierigkeiten unter dem Nutzen von state-of-the-art Methoden an. Erreicht werden soll dies durch eine Anwendung der am häufigsten genutzten experimentellen Paradigmen, Messsequenzen und Analysemethoden zur Untersuchung des AC. Ergänzt durch mehrfache Erhebungen innerhalb der geplanten Probandengruppe und der Einbindung diverser „open science“ Methoden und Standards, wird somit ein quantitativer Vergleich hinsichtlich Robustheit, Reproduzierbarkeit und Reliabilität ermöglicht. Zum besseren Verständnis und Evaluation werden im Nachfolgenden das Projekt und die „open science“ Anwendungsbereiche näher erläutert. Die Lokalisation, Struktur, Organisation und Funktion des AC stellen nicht nur einen hochinteressanten eigenen Forschungsbereich dar, sondern bilden auch den Grundstein für weiterführende Untersuchungen höherer Bereiche AV weit über rein sensorische Fragestellungen hinaus. Da der AC eine tonotope Gliederung, also eine anatomische Aufteilung basierend auf Tonhöhe (Frequenz), aufweist (welche bereits in der Cochlea entsteht und sich über das Stammhirn bis hin zu Bereichen des Großhirns fortsetzt), stellen Sequenzen von Sinustönen unterschiedlicher Frequenzen, verteilt über den Hörbereich des Menschen (ca. 20 – 16000 Hz) präferierte Stimuli dar. Das hier vorgestellte Projekt nutzt darauf aufbauend zwei verschiedene Stimulationsparadigmen, welche hochfrequent in früheren Studien verwendet wurden: singuläre Abfolgen von Tönen und Abfolgen von „tone bursts“. Während ersteres auf einfachen Darbietungen der Tonfrequenzen beruht, nutzt das Zweite Wiederholungen der gleichen Tonfrequenz innerhalb einer Darbietung, wobei jeweils logarithmisch skalierte Töne (basierend auf den physikalisch wahrnehmbaren Intervallabständen) genutzt werden. Die bereits angesprochene Problematik der erschwerten Untersuchungsbedingungen ergeben sich unteranderem aus dem Setting und der Lautstärke bildgebender Messverfahren wie z.B. der funktionellen Magnetresonanztomographie (fMRT). Zur Vermeidung von Störreizen und Maskierung auditorischer Reize welche durch Routine-fMRT-Messsequenzen entstehen, werden in den AN zumeist sogenannte „sparse-sampling“ Messsequenzen verwendet, welche erst nach Darbietung einer Tonfrequenz das fMRT-Signal abgreifen und sich somit die geringe zeitliche Auflösung des abgreifbaren fMRT-Signals zunutze machen, da die Tonfrequenzen so in Ruhe dargeboten werden können. Hierbei werden erneut zwei verschiedene Verfahren früherer Studien verwendet: klassische und „multi-band“ „sparse-sampling“ Messsequenzen. Letztere bieten den Vorteil einer erhöhten Abtastrate und dadurch mehr Signal gegenüber ersteren. Um des Weiteren eine Untersuchung auf hoher zeitlicher Auflösung zu ermöglichen wird simultan eine Elektroenzephalographie-Messung (EEG) durchgeführt was somit zum einen Vergleich bildgebender Verfahren als auch deren integrierte Auswertung erlaubt. Das sich hieraus ergebene 2x2 Experimentaldesign (2 Stimulationsparadigmen, 2 Messsequenzen) wird von Probanden jeweils zweifach in pseudorandomisierter Reihenfolge bis Dezember 2017 absolviert. Anschließend daran findet bis Mai die Auswertung der Daten, hinsichtlich der Lokalisation, Struktur und Organisation des AC in drei Arbeitspaketen statt. Zunächst werden fMRT- und EEG-Daten separat mittels drei verschiedenen Verfahren früherer Studien analysiert: 1) univariate Statistik, 2) multivariate Mustererkennungsverfahren und 3) künstliche neuronale Netzwerke. Dadurch werden jeweils der AC sowie dessen Subareale definiert, lokalisiert und benannt. Das erste Verfahren nutzt dazu klassische Inferenzstatistik in Form eines allgemeinen linearen Modells, sowie T- und F-Tests zwischen den Hirnaktivierungen evoziert durch die einzelnen Frequenzen. Der zweite Ansatz interpretiert die Hirnaktvierungen als Muster und durchsucht das gesamte Gehirn nach Arealen welche die höchste Distinktion zwischen den Mustern der Tonfrequenzen aufweisen. In der letzten Methode dienen, durch biologische akustische Wahrnehmung motivierte, künstliche neuronale Netzwerke als Modelle und das Gehirn wird nach Arealen durchsucht welche die höchste Ähnlichkeit mit selbigen zeigen. Nachfolgend werden zur Unterteilung in Subfelder jeweils tonotope Gradienten berechenet. Im zweiten Teil findet eine integrierte Auswertung beider Datenmodalitäten mittels der genannten Verfahren statt. Final wird die Robustheit, Reproduzierbarkeit und Reliabilität aller möglichen Kombinationen von Stimulation, Messsequenz, Daten und Analyseverfahren durch einen Vergleich der zwei Messzeitpunkten bestimmt. Dazu wird der Intraklassenkoeffizient als qualitatives Maß genutzt. Abschließend findet im Zeitraum Mai bis Juni die Vorbereitung von wissenschaftlichen Postern, Vorträgen und Publikationen, sowie eine Evaluation des Projektes statt. Zur Vermeidung der angesprochenen Probleme kostenpflichtige und nichtzugängliche Software/Codes, mangelnde Kollaborationen und Wissenstransfer werden sämtliche Bereiche und Schritte des Projekts im Sinne von „open science“ öffentlich, transparent und zugänglich gemacht. So werden die Projektskizze und Informationen mit Kontaktdaten auf Wikiversity und hackpad veröffentlicht. Das genaue Design und die notwendige Probandenanzahl werden öffentlich mittels www.neuropowertools.org berechnet und dargestellt. Interessierte Personen haben durch einen eingerichteten Projekt-Channel innerhalb des globalen „brainhack“ slack-Teams über den gesamten Projektzeitraum und darüber hinaus die Möglichkeit aktuelle Neuigkeiten zu erhalten und selbst aktiv mitzuarbeiten (z.B. durch Videokonferenzen bei Besprechungen, „screen sharing“ während der Auswertung, etc.). Sämtliche Software und Codes des Projekts werden auf Python basieren und auf Github hochgeladen, wodurch sie zur (kosten-) freien Verfügung stehen. Diese Ressourcen werden zusätzlich in einem „docker image“ bereitgestellt was eine plattformunabhängige Anwendung der Skripte, sowie sofortige Replikation der Ergebnisse dieses Forschungsprojekts aber auch Anwendung auf neue Daten ermöglicht. Alle Ergebnisse werden auf www.openfmri.org veröffentlicht, wo sie zum freien Download verfügbar sein werden. Dadurch soll eine einfache, verständliche und freie Anwendung durch andere Personen und Arbeitsgruppen ermöglicht werden, welche für ihre Forschungsvorhaben passenden Kombinationen aus Stimulation und Analyse evaluieren und auswählen. Konferenzbeiträge, Poster und Vorträge werden auf der Internetseite des Instituts zum freien Download gestellt und Publikation als pre-print und in open access Journals veröffentlicht. Das Projekt hat dadurch das Ziel die Erforschung des AC und AV gemeinschaftlich und offen weiter voranzubringen. Weiterhin wird das Projekt als Pilot zur Etablierung der genannten Methoden von „open science“ am durchführenden Institut dienen. So werden neue Serversysteme mit gänzlich kostenfreier Software (z.B. Python) für die Anwendung im neurowissenschaftlichen Bereich ausgestattet und aufgesetzt, sowie die entsprechenden Möglichkeiten zur Anwendung an den Messgeräten (MRT, EEG, etc.) implementiert. Es werden slack und github Accounts für das Institut angelegt, durch welche Kommunikation und „resource sharing“ vereinfacht, sowie offen, frei und einfach innerhalb des Instituts und mit externen Personen zur Verfügung gestellt werden soll. Ab März 2018 werden zweiwöchentliche kostenfreie workshops für alle interessierten Mitarbeiter und externe Personen (auch per live stream) angeboten, um neben einem Bewusstsein für „open science“ auch eine Grundlage für die Anwendung in Form von intensiven Trainings zu schaffen. Die mögliche finanzielle Unterstützung durch ein Stipendium ihres „Fellow-Programms Freies Wissen“ würde dabei wie folgt aufgeteilt werden: 50% für die Durchführung des Projekts (z.B. MRT-Messkosten, Probandengelder, etc.), 25% die Implementierung und Etablierung von „open science“ Methoden und Standards und 25% für die Durchführung von „open science“ relatierten workshops.
Datenmanagementplan[Bearbeiten]Siehe /Datenmanagementplan Zwischenbericht[Bearbeiten]Siehe /Zwischenbericht Peer Herholz[Bearbeiten]
|