Walter Tydecks

Nobelpreisträger 2014

Neue Entwicklungen in Physik, Chemie und Medizin
sowie Ausflüge in die Mathematik und Informatik
 

sted mikroskopie
Unterschiedliche Bildauflösung mit herkömmlicher und Fluoreszenz Mikroskopie

 

Beitrag für den Themenkreis Naturwissenschaft und Technik von 50plus aktiv an der Bergstraße am 26.11.2014 in Bensheim

 

Bei Vergabe der Nobelpreise für naturwissenschaftliche Fächer wurden 2014 Neuentwicklungen ausgezeichnet, die teilweise bereits heute das Alltagsleben prägen. Im Mittelpunkt soll jedoch der Nobelpreis für Medizin stehen, der medizinische, entwicklungspsychologische, mathematische und philosophische Fragen aufwirft. Außerdem wurde 2014 die Fields-Medaille vergeben, die als Nobelpreis der Mathematik gilt. Weiter gingen der Alternative Nobelpreis und der Friedenspreis des Deutschen Buchhandels an Informatiker. – Am Rande werden einige Themen der deutschen Geschichte gestreift.

Chemie: Superauflösende Fluoreszenz-Mikroskope

Zum 28. Mal geht ein Chemie-Nobelpreis nach Deutschland, dieses Mal gemeinsam mit zwei Forschern in den USA. Stefan Hell arbeitet am 1971 gegründeten Max-Planck-Institut für biophysikalische Chemie in Göttingen. Er wurde 1962 in Rumänien geboren, studierte in Heidelberg, bekam zunächst in Deutschland keine Stelle und ging nach Finnland und Oxford, Vater dreier Kinder, in der Freizeit Sport und Saxophon, sieht die deutschen Max-Planck-Institute auf Augenhöhe mit den großen amerikanischen Einrichtungen.

Betzig, Hell und Moerner haben eine neuartige Mikroskopie entwickelt, die weit bessere Auflösungen liefern als die herkömmlichen lichtauflösenden Mikroskope. Diese unterlagen der sogenannten Abbe-Grenze bei 0,2 Mikrometer. Mit den neuen Mikroskopen werden Viren (100 nm), Ribosomen (20-25 nm), Proteine (10 nm) und Moleküle (1 nm) sichtbar. Die neuen Mikroskope werden als Fluoreszenz- oder STED-Mikroskope bezeichnet (Stimulated Emission Depletion-Mikroskopie, wörtlich übersetzt: Mikroskopie durch angeregte Ausgabe und Erschöpfung).

»Dem Strahl, der die Moleküle zum Fluoreszieren bringt, wird ein zweiter Strahl hinterhergeschickt, der die Moleküle sofort wieder abregt. Allerdings hat er in der Mitte ein Loch, so dass die Moleküle in einem bestimmten Bereich weiterhin leuchten. Seine Größe ist beliebig einstellbar. Auf diese Weise kann eine bis zu zehnmal höhere Auflösung erreicht werden als mit zuvor üblichen Mikroskopen. Mit der STED untersuchte Hell anschließend Nervenzellen und gewann neue Erkenntnisse über Hirnsynapsen. Betzig und Moerner arbeiteten getrennt an einer anderen Methode. Sie beleuchteten mit einem Strahl einzelne Moleküle mehrfach unterschiedlich lang. Diese Bilder übereinandergelegt ergaben ebenfalls Auflösungen von Nanoqualität« (dpa, z.B. in SPON vom 8.10.2014 und taz vom 10.10.2014).

STED - Artikel von Hell

»Gemessene Fluoreszenzspots mit beugungsbedingter Standardgröße (links) und im STED-Verfahren (rechts). Die Verringerung des Spots von 254 nm auf 48 nm Durchmesser bedeutet einen Faktor 25 in der Fläche. Das Messprofil in der Mitte belegt die Verschärfung des effektiven Fokus« Sefan Hell, Katrin Willig, Volker Westphal: Fluoreszenzmikroskopie ohne Beugungsgrenze, in: BIOspektrum Heft 5/2006; Link.

»Sie ist also nicht auf die Untersuchung von Oberflächen beschränkt. Man kann beispielsweise auch das Innere von Zellen untersuchen. Auch die Beobachtung von schnellen dynamischen Prozessen ist möglich, mit bis zu 200 Bildern pro Sekunde« (Wikipedia).

STED Mikroskope werden in Zusammenarbeit mit dem Max-Planck-Institut für biophysikalische Chemie in Göttingen von Leica in Mannheim hergestellt und vertrieben. Leica hat 2014 für das Gerät TCS SP8 STED 3X den Preis für eine der 100 innovativsten Technologien erhalten ( R&D 100 Award ). Eine weitere Lizenz ging an Zeiss in Jena. Der Weltmarkt für zelluläres Imaging wurde für 2009 auf 2,77 Mrd $ geschätzt ( Technologie-Lizenz Büro ).

Physik: Das blaue LED-Licht

Fast gleichzeitig waren die Nachrichten über den Nobelpreis für Physik und den Niedergang von Osram zu lesen. Osram war neben Philips und General Electrics einer der drei Konzerne, die sich den Weltmarkt für Glühbirnen aufgeteilt hatten. Im Moment muss innerhalb weniger Jahre die Belegschaft von 42.000 auf 25.000 Mitarbeiter abgebaut werden. Der Markt für Lichtquellen befindet sich im Umbruch, und dafür gab es den Nobelpreis 2014 an die drei gebürtigen Japaner Isamu Akasaki, Hiroshi Amano und Shuji Nakamura. Ihnen gelang die Entwicklung blau-leuchtender LEDs, mit denen gemeinsam mit den bereits existierenden rot- und grün-leuchtenden LEDs (light-emitting diode) weißes Licht mit LEDs erzeugt werden kann.

Etwa ein Viertel des weltweiten Stroms wird für Licht verbraucht. Eine LED hält ca. 100.000 Leuchtstunden, Glühlampen nur 1000 und Neonröhren 10.000.

Eine verwandte Technologie sind die blauen Laser, die in Blue-ray Discs eingesetzt werden mit wesentlich höherer Speicherkapzität als bei DVD.

Erste Arbeiten auf diesem Gebiet stammen von Henry Joseph Round (1881-1966), der 1907 beim Anlegen einer Spannung an einen Siliciumcarbidkristall dessen kaltes, gelbliches Glimmen entdeckte. (Über die vielfältigen Einsatzgebiete des Siliciumcarib, auch Karborund genannt, könnte eine eigene Veranstaltung durchgeführt werden.) 1927 entdeckte der russische Hochfrequenztechniker Oleg Lossev (1903-1942) die Elektroluminiszenz, »bei der ein Festkörper durch Anlegen eines elektrischen Feldes bzw. einer elektrischen Spannung dazu angeregt wird, elektromagnetische Strahlung, z. B. in Form von Licht, zu emittieren«. (Lossev verhungerte 1942 während der deutschen Belagerung von Leningrad.)

Halbleiter wurden intensiv erforscht und bilden die Grundlage der Transistoren. Seit den 1950ern arbeiteten Entwicklungsabteilungen bei Philips in Deutschland, SERL (Services Electronic Laboratories) in England und Bell in USA an der Entwicklung von Leuchtdioden.

»Zwischen der n- und der p-Schicht bildet sich ein sogenannter pn-Übergang oder aktive Zone. Sobald eine elektrische Spannung an die Diode angelegt wird, wandern in diese Zone die negativen Elektronen von der n-Seite und die positiven Löcher von der p-Seite hinein. Treffen sie aufeinander, vereinigen sie sich und setzen Energie frei. Bei Leuchtdioden wird diese Energie in Form von Licht frei. LEDs bilden damit gewissermaßen die Umkehrung der Solarzelle: LEDs machen Licht aus Strom und Solarzellen Strom aus Licht.
   Die Energie stammt hierbei vom Elektron, das aus dem energiereicheren Leitungsband in das energieärme Valenzband des Halbleiters hinunter fällt. Die Energiedifferenz wird als Lichtquant frei. Die Farbe des Lichts hängt von der Höhe des Quantensprungs zwischen den beiden Energiebändern ab – und damit von dem Material des Halbleiters. Es kann jedoch auch vorkommen, dass ein Teil der Energie nicht in Licht umgewandelt wird, sondern beispielsweise in Schwingungen des Kristallgitters. Das verringert die Lichtausbeute« ( Spektrum.de ).

LED blau

Im Herz der LED
»Eine Leuchtdiode besteht aus mehreren Halbleiterschichten. Sobald eine elektrische Spannung an die Diode angelegt wird, wandern die negativen Elektronen von der n-Schicht und die positiven Löcher von der p-Seite in die aktive Zone. Treffen sie aufeinander, vereinigen sie sich und setzen Energie in Form von Licht frei. In einer blauen LED befinden sich zahlreiche Schichten aus Galliumnitrid (GaN). Mit Hilfe von Indium (In) und Aluminium (Al) lässt sich die Effektivität erhöhen» (Thomas Bührke: Es werde blaues Licht, in: Spektrum der Wissenschaft, 7.10.2014; Link).

Für blaues Licht gelang das nicht. Seit den 1970ern schlugen die japanischen Nobelpreisträger einen neuen Weg ein. Siliciumcarbid wurde durch das für diese Aufgaben höherwertigere Galliumnitrid abgelöst. Die japanischen Forscher verwendeten Saphir als Substrat und dampften Galliumnitrid auf diese Unterlage auf. Die meisten Physiker hielten diesen Ansatz für nicht machbar, doch Akasaki, Amano und Nakamura erzielten erstaunlich gute Resultate. 1992 konnte das Ergebnis präsentiert werden und wird seit 1993 von der japanischen Firma Nichia vermarktet. – Hier zeigt sich an einem Beispiel ein durchgreifender Material-Wandel auf dem Halbleiter-Markt. Dank seiner um Größenordnungen besseren Leistungen setzt sich Galliumnitrid durch und wird die herkömmliche Silizium-Technologie ablösen. Wichtigste Einsatzgebiete: Schaltnetzteile, Solarkomponenten und Motorsteuerungen. (vdi-nachrichten vom 4.7.2014)

Siliciumcarbid  Galliumnitrit

Strukturformel des Siliciumcarbid (Wikipedia) und Kristallstruktur des Galliumnitrid (Wikipedia)

Der Weltmarkt für LED-Technologie betrug 2013 bereits 17,7 Mrd $ und ist weiter stark wachsend (elektroniknet). 2014 basieren bereits ein Drittel aller Leuchtmittel auf LEDs. Bis 2020 wird der Anteil auf 80% wachsen. Der Gesamtmarkt wird auf ca. 100 Mrd. $ geschätzt und könnte bereits 2017 wieder schrumpfen, wenn die erste Einsatzwelle von LED-Technologie abgeschlossen ist. Die Preise für LED-Leuchtelemente fallen derzeit um bis zu 40% jährlich. Die meisten Leuchtelemente werden in Asien hergestellt. Europäische Hersteller wie Osram haben die Dynamik unterschätzt. (Augsburger Allgemeine vom 8.10.2014) "Osram liefert sich mit Samsung ein Kopf-an-Kopf-Rennen um Platz 2 im Markt; globaler Spitzenreiter ist mit Abstand der japanische Nichia-Konzern." ( NZZ vom 23.9.2014).

»Die Fertigung der LED-Chips ist nach wie vor kostspieliger, weil dabei teure Materialien wie Saphir und Seltene Erden zum Einsatz kommen. [...] Neben wachsenden Stückzahlen versucht die LED-Branche ihre Produktion billiger zu machen, um einem Margenverfall zu begegnen. So baut Osram seine LED-Lampen inzwischen in modularer Weise, um verschiedene Teile kombinieren oder austauschen zu können, wenn es zum technischen Fortschritt kommt. Das teure Saphirglas als Basisträger für die Chips soll durch wesentlich billigeres Silizium ersetzt werden. Allerdings bietet das graue Halbmetall bislang noch Nachteile.« – Weiter wird versucht, mit der LED-Technologie andere Vorteile zu verbinden. »Die Nutzer sollen die einzelnen Lampen mit Smartphones per WLAN oder Bluetooth ansteuern können. Philips brachte intelligente Lichtsysteme bereits 2012 heraus, Osram, Samsung und LG haben in den letzten Wochen ähnliche Produkte angekündigt» (Deutsche Mittelstandsnachrichten vom 9.4.2014).

Medizin: Orientierung im Raum

Das Thema berührt medizinische, entwicklungspsychologische, mathematische und philosophische Fragen. Es spielte schon immer eine große Rolle bei der Entwicklung der Künstlichen Intelligenz. Warum können sich Roboter so schwer im Raum orientieren? Wie erkennen sie, ob sie sich in einem Raum befinden und wo die Grenzen des Raums sind? Jeder Mensch orientiert sich im Raum und erkennt dann, ob er »zuhause« ist und kann schrittweise seine Umgebung lokalisieren. Berühmt die Beschreibung von Marcel Proust, wie er sich beim Aufwachen orientiert, wo er geschlafen hat.

Räumliche Orientierung hat mit Erinnerung zu tun. Wer sich orientiert, erinnert sich, wann und unter welchen Umständen er diesen Ort bereits einmal oder mehrfach erlebt hat. Er verbindet mit diesem Ort andere Erinnerungen.

Als es noch keine Bücher gab, wurde eine Erinnerungstechnik genutzt (Memorierung), die Begriffe wie in einer Landschaft darstellte. Das kehrt heute wieder, wenn Spracherkennungs- und -übersetzungsprogramme mit semantischen Netzen arbeiten.

Eine andere Frage ist der Ablauf der Reizübertragung von den Sinnesorganen zum Gehirn und hier besonders die Reizunterscheidung. Bei Kleinkindern kann beobachtet werden, wie sie stundenlang im Kinderwagen liegen und die Tiefenstruktur des Raums über ihrem Gesichtsfeld entdecken. Sie bewegn ihre Hände und koordinieren die verschiedenen Sinne. In welcher Weise werden die hier empfangenen Reize koordiniert und gespeichert? Dafür können in unterschiedlichen Abstraktionsstufen Diagramme über die Nervenbahnen und in mathematischen Modellen entwickelt werden. Welche Parameter steuern die Reize: Intensität, Häufigkeit, zeitliche Zyklen, und hierbei wiederum bestimmte Muster.

Die Nobelpreisträger haben wesentlich dazu beigetragen, die neurologischen Grundlagen dieser Prozesse besser zu verstehen.

John O'Keefe (74) und das Ehepaar May-Britt und Edvard Moser (51, 52) konnten an Ratten nachweisen, welche Prozesse im Gehirn bei der räumlichen Orientierung ablaufen. Dies ist eine erstaunliche medizinische Leistung, da es sehr schwierig ist, die Aktivierung von Gehirnzellen während der Bewegung zu beobachten. Das Nobelpreiskomitee hat ihre Erkenntnisse mit drei Graphiken zu veranschaulichen versucht.

Ortszellen

Ortszellen
»Laufwege einer Ratte: Links ist die Fläche zu sehen, über die sich das Tier bewegt. Einzelne Ortszellen in einer Hirnregion, dem sogenannten Hippocampus, werden immer dann aktiv, wenn sich das Tier an einer bestimmten Stelle befindet. Sie bilden also die Basis einer inneren Karte. John O'Keefe entdeckte die Ortszellen und ihre Bedeutung« Quelle: SPON, Original: Info des Nobelpreis-Komitee.

Bereits seit den Arbeiten des Neobehavioristen E.C. Tolman (1886-1958) um 1930 wurde vermutet, dass Lebewesen eine kognitive Karte ihrer Umgebung entwerfen. Er untersuchte das Verhalten von Ratten in Labyrinthen. John O'Keefe hat in den späten 1960ern mit Jonathan Dostrovsky beobachtet, dass es im Gehirn einer Ratte Gehirnzellen (Neuronen) gibt, die genau dann aktiviert werden, wenn die Ratte an einem bestimmten Ort ist. Das war völlig unerwartet: Ortszellen. Dazu war es notwendig, die Gehirnaktivitäten im Verlaufe der Bewegung aufzuzeichnen. Hierfür wurden im Rattenhirn Mikroelektroden implantiert. Diese Art von Tierexperimenten wurde kritisiert und kann bis heute aus ethischen Gründen bei Menschen nicht durchgeführt werden.

O'Keefe konnte auch nachweisen, dass sich die Gehirnzellen erinnern. Wenn eine Ratte an einen bestimmten Punkt zurückkehrt, wird die gleiche Zelle wie zuvor aktiviert. Je öfter der gleiche Ort durchlaufen wird, desto aktiver ist die jeweilige Zelle und meldet, dass dieser Ort bereits mehrfach betreten wurde. Wenn sich die Umgebung ändert, ändert sich auch das Muster der aktivierten Ortszellen.

Im Gehirn wird offenbar eine Verbindung hergestellt zu anderen Ereignissen, die stattfanden, als der jeweilige Ort betreten wurde. Wer etwas vergessen hat, sollte daher zu dem Ort zurückkehren, an dem er es noch wusste. Dann kann er sich dank der Ortszellen wieder erinnern.

Mathematisch ist es eine interessante Aufgabe, in welcher Weise kognitive Karten den uns bekannten topologischen Bildern entsprechen. Hier stellt sich die Frage, ob es übergreifende Grundzüge der Wissensdarstellung gibt, also z.B. kognitive Karten und semantische Netze topologisch oder geometrisch ähnlich sind. Diese Ergebnisse können sowohl genutzt werden für Künstliche Intelligenz als auch für den Entwurf von Karten, die möglichst einfache Orientierung ermöglichen.

Eine andere Frage ist, mit welchem Muster die Karten geändert werden, wenn sich die äußere Umgebung ändert. Die sich hier im weiteren anschließenden Fragen sind schier unbegrenzt. Wie können Erinnerungen voneinander getrennt werden? Gibt es traumatische Ereignisse, die mit bestimmten Orten verbunden werden, und wie wirken sie sich in der Gehirnstruktur aus und können geheilt werden? Wie verändern sich diese Zellen im Alter, und kann die Alterung mit äußeren Eingriffen aufgehalten werden? Eine besonders wichtige Frage ist das Verhältnis zu Gedächtnisstörungen bei Demenz und Alzheimer.

Gridzellen

Gitterzellen
»Mehr als drei Jahrzehnte später entdeckten May-Britt und Edvard Moser die sogenannten Gitterzellen, die sich in einer Hirnregion befinden, die eng mit dem Hippocampus verknüpft ist. Einzelne Zellen sind an mehreren Orten aktiv - und zwar an den Eckpunkten eines Sechsecks« Quelle: SPON, Original: Info des Nobelpreis-Komitee.

Mit den Gitterzellen (bisweilen auch als Rasterzellen bezeichnet, englisch grid cells) wird gewissermaßen ein Koordinatensystem über die Ortszellen gelegt. Die Karte ist wie eine Bienenwabe sechseckig (also kein viereckiges Kachelmuster).

Die Gitterzellen sind aktiv an allen Eckpunkten eines Sechsecks. Sie zeigen also an, dass dieser Ortsbereich erreicht ist, der sich in diesem Sechseck befindet. In der Begründung des Nobelpreiskomitees heißt es, dass ein solches Verhalten vorher noch nie beobachtet worden war und mit einem Kompass verglichen werden kann. Es ermöglich eine Abstandsmessung (ein metrisches System).

Neuere Forschungen zeigen, dass nicht nur die Stärke der Zellaktivität, sondern auch ihr zeitliches Muster wichtig ist. Offenbar kann das Gehirn das Muster auswerten.

Die Aufgabe der Gitterzellen kann mit dem Pixeln verglichen werden.

Mathematik: Fields-Medaille 2014

Die Fields-Medaille wurde 1936 und seit 1950 alle 4 Jahre an bis zu 4 Mathematiker verliehen. Sie ist nach dem kanadischen Mathematiker Fields benannt, der seinerzeit Präsident der internationalen Mathematikervereinigum ICM war. Anders als beim Nobelpreis müssen die Empfänger der Medaille vor dem 1. Januar des Jahres, in dem sie ausgezeichnet werden, jünger als 40 Jahre gewesen sein. Cédric Villani, einer der Preisträger von 2010, hat hierüber 2012 ein lesenswertes Buch geschrieben, wie es zu mathematischen Entdeckungen kommt.

Unter den vier Preisträgern von 2014 befindet sich erstmals eine Frau, die Iranerin Maryam Mirzakhani, geboren 1977 in Teheran. Sie arbeitet an geometrischen Fragen gekrümmter Räume, die auf den deutschen Mathematiker Bernhard Riemann zurückgehen und in den letzten Jahrzehnten große Bedeutung für die Entwicklung kosmologischer Modelle bekommen haben wie insbesondere die Stringtheorie. Deren wichtigster Vertreter Edward Witten (* 1951) ist bis heute der einzige Physiker, der mit der Fields Medaille ausgezeichnet wurde (1990). Die deutsche Geschichte kommt nochmals herein, denn das von Mirzakhani bearbeitete Teilgebiet wurde begründet von Oswald Teichmüller (1913-1943), ein fanatischer Nationalsozialist, gefallen an der Ostfront, für die er sich freiwillig gemeldet hat.

Teichmüller-Raum   Teichmüller-Raum

Teichmüller-Räume
Mit dem Teichmüller-Navigator lassen sich Teichmüller-Räume konstruieren. Die beiden Abbildungen sind daraus entnommen. Sie zeigen, wie Teichmüller Räume aus symmetrischen (algebraischen) und topologischen Prinzipien entwirft, z.B. aus einem regelmäßigen Acht-Eck und einem Torus (Reifen). Wird das wiederholt, dann entstehen Figuren, die der fraktalen Geometrie ähneln. Möglicherweise lassen sich mit ihnen Geometrien entwerfen, die das Universum darstellen.

Der Brasilianer Artur Àvila (* 1979) arbeitet auf ähnlichen Gebieten wie Mirzakhani, jedoch mit einem stärkeren Schwerpunkt auf Theorien chaotischer Strukturen.

Martin Hairer (* 1975) aus Österreich beschäftigt sich mit komplexen Differentialgleichungen, bei denen auch Zufallseinflüsse zu berücksichtigen sind. Er nennt als Beispiel: Konkret kann man sich das anhand eines Blatts Papier vorstellen, das man gleichmäßig über eine ganze Seite hinweg anzündet. Aufgrund zufällig angeordneter Stellen, die langsamer bzw. schneller verbrennen, wird sich die Flamme ungleichmäßig durchs Papier fressen. Den Verlauf des verkohlten Rands - also die eindimensionale Grenze zwischen den zwei Phasen fest und gasförmig - kann man mit stochastischen partiellen Differenzialgleichungen berechnen. In diesen Funktionen treten Besonderheiten auf, die erstmals Hairer geklärt hat. ( Quelle )

Manjul Bhargava (*1974 in Kanada, indische Herkunft) wuchs bei New York auf und beschäftigt sich auch mit vielen anderen Themen wie der Sprache Sanskrit und dem Spiel auf der Tabla. In der Mathematik ist er Spezialist auf der Zahlentheorie, die im wesentlichen auf Gauß zurückgeht. Die Aufgabe lautet: Läßt sich jede natürliche Zahl als Summe von 4 Quadratzahlen darstellen, also z.B. 31 = 25 + 4 + 1 + 1 oder 3 = 1 + 1 + 1 + 0? Hierbei muss die 0 als Quadratzahl zugelassen werden. Die Vermutung wurde erstmals 1620 aufgestellt, 1770 veröffentlichte Lagrange einen ersten Beweis (Vier-Quadrate-Satz).

Die Fragestellung wurde im Laufe der Zeit erheblich erweitert. Lassen sich im 4-Quadrate-Satz zusätzliche Faktoren ergänzen? Kann also z.B. jede natürliche Zahl zerlegt werden in ›n = 3 · a2 + 5 · b2 + 2 · c2 + d2 + 2 a · b‹ oder irgendeine andere Kombination?

»Gemeinsam mit seinem Kollegen Jonathan Hanke hat Bhargava gezeigt, dass (für alle Vermutungen dieser Art, t.) ein Test mit genau 29 Zahlen genügt, um die Frage zu beantworten. ... Hier sind die 29 Zahlen: 1, 2, 3, 5, 6, 7, 10, 13, 14, 15, 17, 19, 21, 22, 23, 26, 29, 30, 31, 34, 35, 37, 42, 58, 93, 110, 145, 203, 290« ( Quelle ). Für seinen Beweis brauchte er Computer, die eine Vielzahl von Einzelfällen durchrechneten.

Alternativer Nobelpreis

Der Alternative Nobelpreis wurde an 5 Personen und 2 Organisationen verliehen. Neben den Menschenrechtlern bzw. Menschenrechtsaktivisten Asma Jahangir aus Pakistan und Basil Fernando aus Sri Lanka ging der Preis an den Informatiker und Whistleblower Edward Snowden sowie den ihn unterstützenden Alan Rusbridger, Chefredakteur des Guardian, sowie den Umweltaktivisten Bill McKibben und die Organisation 350.org.

Der 1983 geborene Snowden unterbrach 2003 sein Studium der Informatik, um als Reservist am Irak-Krieg teilzunehmen. 2005 brach er das Studium ab und begann seine Arbeit beim Geheimdienst CIA. Dort war er im Bereich IT-Sicherheit und ab 2009 für die Beratungsfirma Booz Allen Hamilton als Systemadministrator angestellt. Booz Allen Hamilton war für die Internet-Überwachung tätig. Er erhielt eine Ausbildung, wie ein Hacker arbeiten zu können und deren Vorgehen zu verstehen. IT-Spezialisten dieser Art überprüfen die Anfälligkeit von EDV-Systemen. Er galt als »Cyberstratege« und »Experte in Cyber-Gegenspionage« und hat möglicherweise in dieser Stellung erkannt, über Booz Allen Hamilton zu mehr Daten Zugriff zu bekommen.

Booz Allen Hamilton ist laut Wikipedia mit 24.000 Mitarbeitern »ein führendes Unternehmen im Bereich der militärischen Dienstleistungen für das US-Verteidigungsministerium«. Es hat nach den Anschlägen 2001 innerhalb von 10 Jahren seinen Jahres-Umsatz auf über 3 Mrd. Dollar verzehnfacht. Zu seinen Aufgaben zählt, Terroristen in sozialen Netzwerken zu identifizieren. Die Computerworld hat das Unternehmen 2010 als einen der besten Arbeitgeber für IT-Spezialisten ausgezeichnet, berühmt für seine Picknicks mit den Mitarbeitern.

Bill McKibben ist ein amerikanischer Umweltaktivist und Autor von Bestsellern mit Schwerpunken auf globale Erwärmung und alternative Energien, aber auch Warnungen vor der Gentechnik und Nanotechnologie. Er hat 2007 die amerikanische Umweltschutzorganisation 350.org gegründet, die als Lobbyist für die Umwelt auftritt. Der Name bedeutet, »dass der Gehalt von Kohlenstoffdioxid in der Erdatmosphäre 350 parts per million (ppm) nicht überschreiten darf, wenn das 2-Grad-Ziel erreicht und ein Kippen des globalen Klimasystems mit irreversiblen Folgen verhindert werden soll« (Wikipedia). 350.org wird von Prominenten wie Desmond Tutu oder Bianca Jagger unterstützt.

Friedenspreis des Deutschen Buchhandels an Jaron Lanier

Der Buchpreis wurde ungewöhnlicherweise an einen Informatiker verliehen. In anderen Jahren wurden Schriftsteller, Philosophen, Künstler oder Politiker ausgezeichnet, jedoch nie oder höchstens sehr selten Naturwissenschaftler.

Jaron Lanier (* 1960) war seit jungen Jahren in den 1980ern Entwickler bei Atari und arbeitete im Gebiet der Virtuellen Realität (Spielprogramme). Gleichzeitig trat er als Künstler u.a. mit Philip Glass, Ornette Coleman, Terry Riley und Yoko Ono auf. Er lehrt Informatik und ist nach wie vor in verschiedenen Informatik-Projekten aktiv, auch bei Konzernen wie Microsoft. Er ist dennoch entschiedener Kritiker der Schwarmintelligenz und von Projekten wie Wikipedia und Open Source, denen er eine Art Selbstausbeutung vorwirft und Blindheit, wie ihre Ergebnisse von wenigen Konzernen wie Google oder Facebook in Profit umgesetzt werden, während ihre Konsumenten eine Umsonst-Ideologie vertreten und bereitwillig mit ihrem Anwenderverhalten den Internet-Konzernen Daten für deren statistische Auswertung und ihre Vermarktung liefern. Diese Haltung führt aus seiner Sicht zur Aufreibung der bürgerlichen Mittelschicht und den Untergang der klassischen Kreativität, weil den typischen Intelligenz-Berufen die materielle Grundlage entzogen wird. Er tritt gegen die Anonymisierung im Internet und für die Rehabilitierung des individuellen Autors ein. Konkret schlägt er vor, dass jeder Nutzer des Internets vergleichbar einer Testperson für seine Preisgabe von Daten oder für seine Leistungen (z.B. Übersetzungen) ein Entgelt erhalten sollte. Derzeit kommt der Nutzen ausschließlich Firmen wie Google oder Facebook zugute.

Literatur und Links

Nobelpreis für Chemie 2014, ausführliche Begründung (in englisch); Link

Nobelpreis für Physik 2014, ausführliche Begründung (in englisch); Link

Nobelpreis für Medizin 2014, ausführliche Begründung (in englisch); Link

Fields-Medaille für Mathematik 2014, ausführliche Begründung (in englisch); Link

Ärztezeitung: Medizin-Nobelpreis; SpingerMedizin

Thomas Bührke: Es werde blaues Licht, in: Spektrum der Wissenschaft, 7.10.2014; Link

Jan Dönges: Auch Menschenhirne fallen ins Raster; Spektrum vom 6.8.2013

Sefan Hell, Katrin Willig, Volker Westphal: Fluoreszenzmikroskopie ohne Beugungsgrenze, in: BIOspektrum Heft 5/2006; Link

Jaron Lanier: Der High-Tech-Frieden braucht eine neue Art von Humanismus, Friedenspeisrede; Link

Spiegel-Online: Tests an Ratten: Tierschützer kritisieren Vergabe von Medizin-Nobelpreis; SPON

Technologie-Lizenz Büro der Baden-Württembergischen Hochschulen: Fluoreszensmikroskopie: Nahinfrarot-Farbstoffe zur in vivo-Markierung, 2010; Link

A. Werner Schulz: Galliumnitrid erobert die Leistungselektronik, in: vdi-nachrichten vom 4.7.2014

Cedric Villani: Das lebendige Theorem, Frankfurt 2013

Bildnachweis: STED Mikroskopie, Credit: Max-Planck-Institut für Biophysikalische Chemie Göttingen, Versuchsangebot STED Mikroskopie im Sommersemester 2014; Link