Wissenschaft kompakt

 

Das Gehirn ...

 

steht bei vielen Neuroinformatikern ganz oben auf der Forschungsagenda. Nachdem amerikanische Wissenschaftler im Auftrag des Verteidigungsministeriums ihre experimentellen Erfolge mit der Verkabelung von Gehirnzellen mit dem Computer veröffentlichten, bekam auch hierzulande der alte Wunschtraum nach künstlicher Intelligenz wieder Auftrieb. Der Drang zu mehr Konvergenz zwischen Computer- und Hirnfunktionen ist in erster Linie Zündstoff für Esoteriker und Science-Fiction-Autoren – Stichwort: Transhumanismus und Immortabilitätstechnologie – befeuert aber auch so manche Forschungseinrichtung. Bioinformatiker des Max-Planck-Instituts haben vor einem Jahr erstmals Nervenzellen und Computerchips direkt miteinander verbunden. Jetzt interessiert sich auch die auf anwendernahe Forschung fokussierte Fraunhofer-Gesellschaft für das Messen von Gehirnaktivitäten: Das Brain-Computer Interface (BCI) wertet mit neu entwickelten Algorithmen die Hirnströme eines Probanden mit Methoden des maschinellen Lernens aus. Institutsleiter Professor Stefan Jähnich vom Fraunhofer-Institut Rechnerarchitektur und Softwaretechnik (FIRST) glaubt, dass bein- oder armamputierte Menschen mit Hilfe intelligenter Lernmaschinen einmal per Gedankenbefehl ihre Prothese in Bewegung setzen.

Während die Transhumanisten der Informationstechnik tatsächlich nachsagen, sie könnte durchaus Körper und Geist abscannen (als Einheit versteht sich) und zu einem späteren Zeitpunkt die Menschmatrix als Eins-zu-eins-Kopie reanimieren, geht es in den Forscherstuben nüchterner zu Sache. Alles, was bisher für Aufsehen erregt hat, waren Experimente mit Rhesusaffen oder niederen Tierarten. Da hebt ein Roboter die Hand, weil im Nebenraum ein Affe mit einem Joystick rumhantiert. Dasselbe passierte auch ohne Joystick. US-Wissenschaftler hatten dem Äffchen 320 Elektroden ins Hirn gepflanzt und mit dem Rechner verbunden. Als sie dem Tier den Joystick wegnahmen, hörte der Roboterarm keineswegs auf zu greifen ...

Professor Peter Fromherz vom Max-Planck- Institut für Biochemie in Martinsried bei München hat einen Philipp Morris-Forschungspreis 2004 eingeheimst, weil es ihm gelang, Nervenzellen gezielt mit Transistoren von Halbleiterchips zu koppeln. Ob die Chips aus dem Datenstrom der Nerven den Befehl „jetzt grinsen“ ablesen konnten, ist unbekannt. In einem Interview hat Fromherz die hochschäumende Phantasie in nüchterne Bahnen gelenkt: „Aber das Implantieren eines Mikrochips in ein Hirn oder die direkte verständliche Kommunikation direkt von einem Hirn mit einem Computer, das ist ganz klar Science-Fiction.“ Also loben wir erst mal eine neue Förderrunde aus. Vorschlag: Elefantengehirn mit doppelter Anzahl an Elektroden – mal sehen, ob der Chip das aushält.

Die größte Hürde ist das Anzapfen der Neuronen im Gehirn. Der chirurgische Eingriff am lebenden Menschen ist Tabu. Fraunhofer-Forscher haben da einen anderen Dreh gefunden. Im Versuchsaufbau wird dem Probanden (Student ?) eine elektrodenbestückte Haube über den Kopf gelegt. Die Sensoren greifen direkt auf der Kopfhaut die Signale aus den inneren Gehirnregionen ab. Die Software muss allerdings erst mal eine zeitlang mit den Signalmustern trainieren. Klar, der Computer ist dann das lernende System. Aber fließen da wirklich Gedanken ? Gemessen werden elektrische Aktivitäten. Was aber bedeutet der plötzliche Amplitudenausschlag ? Der Patient lebt, könnte man meinen. Die Software soll aber nicht ein Lebenszeichen ermitteln, sondern einen konkreten Gedankenbefehl ausführen. „Das klappt erst in ganz einfachen Fällen“, belehrt der anwesende Asisstent. Also weitertrainieren und hoffen, das wieder einmal eine gedachte Anweisung als erkennbares Signalmuster im Rechner ankommt. Einen Nutzwert haben die Experimente allerdings: die philosophische Debatte über die Grenze zwischen Mensch und Maschine (und deren Überschreitung) hat wieder neuen Nährstoff.

 

Der Chip ...

 

ist das Herzstück jedes Rechners. Die internationale Halbleiterindustrie befindet sich seit ihren ersten Tagen in einem beinharten Wettbewerb darüber, wie viel Funktionen auf dem Stückchen Silizium Platz finden. Mal gelingt es einem Konkurrenten mit einem neuen Verfahren die Strukturgröße der mikrometerfeinen Schaltungen noch weiter zu verkleinern. Mal tauchen neue Schaltungskonzepte und Materialien auf, die das Leistungsvermögen pro Quadratzentimeter weiter anheben. Dual-Core-Prozessor heißt die neueste Ankündigung aus den Intel-Labors. Der US-Marktführer will wieder Maßstäbe setzen und lässt seit einiger Zeit gnadenlos die Taktfrequenzen seiner Prozessorfamilie erhöhen. Das strapaziert das Silizium, vor allem die Kühlung im überhitzten Kernkraftwerk. Der Analyst Jim McGregor beispielsweise behauptet, dass bei den Chipzwillingen die Fehlerrate durch statische Leckströme deutlich zunimmt. Die Chipdesigner von Intel haben ohnehin alle Hände voll zu tun, um die Prozessoren, die in der 90- Nanometer-Fertigungstechnik vom Band laufen vor dem Durchglühen zu bewahren.

Mit der Hitze kommt die Zeit der Herausforderungen. Denn IBM wirft frische Prozessoren auf den Markt, die bereits mit zwei Kernen arbeiten. Power5-Prozessoren sind zwar teuer (mehr als 10 000 US-Dollar das Stück), aber bei Benchmark-Tests ungemein leistungsstark. Daraus lässt sich schließen, dass Big Blue anders als Intel die physikalischen und technischen Hürden zur Herstellung der nächsten Chipgeneration hinter sich gelassen hat. Mit anderen Worten: es geht, nur Intel scheint es im Moment nicht hinzukriegen.

 

Schwarze Löcher ...

 

zählen zu jenen obskuren Objekten, die Astrophysiker in helle Aufregung versetzen und manche Deutung über Herkunft und Beschaffenheit zulassen. Der Astrophysiker Stephen Hawking hat vor dreißig Jahren mit einer sensationellen Abhandlung über die Anziehungskräfte in massereichen Sternen die Welt in Aufruhr versetzt. Was sich nämlich im Inneren sterbender Sterne abspielt, entzieht sich jeglicher Einsichtnahme. Es gilt kein Naturgesetz mehr. Raum und Zeit gehen wild durcheinander, es herrscht die pure Anziehungskraft. Sicher ist nur, dass sich ein Objekt kosmischen Ausmaßes in Sekundenbruchteilen in ein quantenphysikalisches "Nichts" verwandelt hat. Eigentlich könnte man ja die Sache damit auf sich beruhen lassen. Aber Hawkins macht weiter. Nach seinen Berechnungen verschlingen schwarze Löcher alles, was in ihre Nähe kommt auf Nimmerwiedersehen. Alles was übrig bleibt sind Masse, Drehimpuls und elektrische Ladung. Aber auch das lässt sich nur vermuten, denn die schwarzen Monstren geben keine Informationen preis. Also postuliert Hawkins Paralleluniversen, in die alles entschwunden ist - und weiterexistiert ? Aber nicht doch. Wer mal auf einer rotierenden Akkretionsscheibe im Grenzbereich eines schwarzen Loches gesessen ist, weiß, dass nicht viel übrigbleibt. Trotzdem begeistert die Vorstellung von einem (schwarzen) Raum das Publikum, schließlich ist alles seriös berechnet von einem Professor der Physik und in zig Vorträgen immer weiter ausgemalt. Es kommt, wie es kommen musste. Die wissenschaftliche Sensation aus dem Jahre 1974 wird zum Dauerbrenner unter akademischen Schöngeistern und in astrophysikalischen Vorlesungen. Zeit verwandelt sich in Raum und Raum in Zeit. Prinzipiell kann jeder Körper in ein schwarzes Loch verwandelt werden, allerdings müßte man ihn hierfür enorm komprimieren. Na wenn’s weiter nichts ist ! Der Rollstuhlfahrer Hawking indes lässt dem Sternenkollaps einen zweiten Kollaps folgen: Am 21 Juli anno 2004 widerruft der Astrophysiker seine Theorie. Sie sei überwiegend auf falschen Annahmen aufgebaut und deshalb nichtig, lässt der Wissenschaftler auf einem Kongress in Dublin verlauten. Mit wenigen Worten sind die Phantasien der Paralleluniversen erledigt. Es gibt nämlich Signale aus der schwarzen Welt, die zwar unlesbar seien, aber Zeugnis davon ablegen, dass eben nicht alles vernichtet respektive in eine Parallelwelt transformiert wird. Was für ein Orientierungschaos löst der geniale Denker aus und beraubt die Menschheit um die Perspektive einer Zeitreise in alternative Welten.