Schattenblick →INFOPOOL →NATURWISSENSCHAFTEN → PHYSIK

THEORIE/042: Mit einem Rechentrick zur umfassenden Theorie der Naturkräfte (Spektrum der Wissenschaft)


Spektrum der Wissenschaft 9/12 - September 2012

Quantenphysik
Mit einem Rechentrick zur umfassenden Theorie der Naturkräfte

Von Zvi Bern, Lance J. Dixon und David A. Kosower



Bei den heftigsten Kollisionen in Teilchenbeschleunigern versagen alle gängigen mathematischen Beschreibungen. Doch ein neuer Ansatz verspricht Abhilfe. Was Physiker besonders begeistert: Damit dürfte sich auch die Schwerkraft zwanglos in das theoretische Modell der Welt einfügen - ein lang gehegter Traum könnte wahr werden.


AUF EINEN BLICK

Neue Hoffnung auf die allumfassende Theorie

1. Berechnungen von Teilchenkollisionen beruhen auf einem Verfahren, das der Physiker Richard Feynman entwickelt hat. Doch bei starken Wechselwirkungen stößt die Methode der Feynman-Diagramme an ihre Grenzen.

2. Die Autoren haben ein neues Verfahren entwickelt, das auch unter den extremen Bedingungen funktioniert, die im Large Hadron Collider (LHC) herrschen. Die Unitaritätsmethode hilft bei der Suche nach exotischen Teilchen und Kräften.

3. Das neue Verfahren weckt Hoffnungen auf eine einheitliche Theorie aller Wechselwirkungen. Die Gravitation erscheint darin als eine doppelte Kopie der starken Kraft.


An einem sonnigen Frühlingstag stieg unser Koautor Dixon an der Station Mile End in die Londoner U-Bahn, um zum Flughafen Heathrow zu fahren. Er musterte den Fahrgast gegenüber - einen von mehr als drei Millionen, die tagtäglich die U-Bahn nutzen - und fragte sich zum Zeitvertreib: Wie groß ist die Wahrscheinlichkeit, dass der Fremde in Wimbledon aussteigt? Wie lässt sich das berechnen, wenn er alle möglichen Wege nehmen könnte? Plötzlich erkannte Dixon, dass die Frage den vertrackten Problemen gleicht, vor denen Teilchenphysiker stehen, wenn sie die Vorgänge in modernen Beschleunigern vorhersagen möchten.

So jagen Forscher mit dem Large Hadron Collider (LHC) am europäischen Kernforschungszentrum CERN bei Genf Protonen mit nahezu Lichtgeschwindigkeit gegeneinander, um die Kollisionstrümmer zu analysieren. Der Bau des Beschleunigers und seiner Detektoren war eine Herkulesaufgabe. Ebenso mühsam, wenn auch weniger augenfällig, ist die Deutung der Detektordaten. Das mag auf den ersten Blick seltsam erscheinen. Das so genannte Standardmodell der Teilchenphysik (siehe Spektrum der Wissenschaft 9/2003, S. 26) hat sich vielfach bewährt, und Theoretiker verwenden es routinemäßig, um experimentelle Resultate vorherzusagen. Dabei nutzen sie ein Rechenverfahren, das der berühmte amerikanische Physiker Richard Feynman (1918-1988, Nobelpreis 1965) schon vor gut 60 Jahren entwickelt hat.

Doch bei modernen Problemen versagt die Methode. Sie liefert zwar einen anschaulichen, ungefähren Zugang zu den einfachsten Abläufen, ist aber hoffnungslos umständlich bei komplizierten Prozessen und für hochpräzise Berechnungen. Die Folgen einer Teilchenkollision sind noch schwieriger vorherzusagen als die Wege eines U-Bahn-Passagiers. Selbst alle Computer der Welt gemeinsam wären nicht im Stande, das Ergebnis einer gewöhnlichen Kollision im LHC zu bestimmen. Wenn aber die Theoretiker nicht einmal für bekannte physikalische Gesetze und Materieformen präzise Vorhersagen treffen können, wie können wir dann beispielsweise feststellen, ob im Beschleuniger etwas wirklich Neues stattgefunden hat? Vielleicht hat der LHC schon die Antwort auf einige unserer größten Fragen an die Natur geliefert, und wir tappen weiter im Dunkeln, weil wir die Gleichungen des Standardmodells nicht exakt genug zu lösen vermögen.

Daher haben wir kürzlich ein neues Verfahren zur Analyse von Teilchenprozessen entwickelt, das die Komplikationen der Feynman-Technik umschifft. Die so genannte Unitaritätsmethode sagt ohne unnötigen Aufwand voraus, was ein U-Bahn-Fahrer tun wird, indem sie einkalkuliert, dass die Möglichkeiten des Passagiers an jedem Entscheidungspunkt recht beschränkt sind und sich durch die Wahrscheinlichkeiten unterschiedlicher Handlungssequenzen darstellen lassen. Viele vordem unlösbare theoretische Probleme der Teilchenphysik werden durch die neue Idee enorm vereinfacht. Die Lösungen liefern so detaillierte Vorhersagen, dass wir eine den Rahmen der gängigen Theorie sprengende Entdeckung leicht erkennen würden. Außerdem stellt sie eine Alternative zum Standardmodell zur Verfügung, die unter Physikern als Vorstufe einer vereinheitlichten Theorie aller Naturkräfte gilt.


Die Unitaritätsmethode

Der Unitaritätsansatz ist nicht bloß ein hilfreicher Rechentrick. Er eröffnet einen völlig neuartigen Zugang zu Wechselwirkungstheorien, in denen überraschende Symmetrien auftauchen und eine bislang unterschätzte Eleganz des Standardmodells zum Ausdruck bringen. Vor allem nimmt dadurch der jahrzehntealte Versuch, Quantenmechanik und allgemeine Relativitätstheorie zu einer Quantentheorie der Gravitation (siehe Spektrum der Wissenschaft, Titelthema 4/2012, S. 34) zu vereinen, eine unerwartete Wendung. Bis in die 1970er Jahre nahmen Physiker an, die Gravitation verhalte sich wie die anderen Naturkräfte, und suchten die vorhandenen Theorien entsprechend zu erweitern. Doch bei Anwendung der Feynman-Methode ergaben sich entweder unsinnige Resultate, oder der mathematische Aufwand stieg ins Unermessliche. Anscheinend war die Gravitation eben doch keine Kraft wie die anderen. Entmutigt wandten sich die Physiker exotischen Ideen wie Supersymmetrie und Stringtheorie zu.

Doch mit Hilfe der Unitaritätsmethode können wir tatsächlich Berechnungen durchführen, die in den 1980er Jahren versucht wurden, aber damals als hoffnungslos schwierig galten. Wie wir herausgefunden haben, sind die Probleme nicht unüberwindlich. Die Gravitation ähnelt in der Tat den anderen Kräften, allerdings auf unerwartete Weise: Sie verhält sich wie eine »Doppelkopie« der starken Kernkraft, welche die Bausteine des Atomkerns zusammenhält. Die starke Kraft wird durch so genannte Gluonen übertragen; die Quantenteilchen der Gravitation sind die Gravitonen. In dem neuen Modell verhält sich jedes Graviton wie zwei zusammengeheftete Gluonen. Dieses Bild mutet seltsam an, und sogar Experten wissen nicht genau, was es bedeutet. Dennoch liefert das Doppelkopie-Modell einen Zugang zur Vereinigung der Gravitation mit den anderen Kräften.

Feynmans Methode ist so überzeugend und nützlich, weil sie extrem komplizierte Rechnungen grafisch darstellt: mit Hilfe von Diagrammen, die das Zusammentreffen zweier oder mehrerer Teilchen anschaulich darstellen. Um quantitative Vorhersagen zu treffen, zeichnet der Forscher mehrere Diagramme, die jeweils einen möglichen Verlauf einer bestimmten Teilchenkollision symbolisieren - analog zu den Routen, die ein U-Bahn-Fahrer wählen kann. Gemäß detaillierten Regeln, die Feynman und seine Kollegen, insbesondere der englische Physiker Freeman Dyson, aufgestellt haben, weist der Theoretiker nun jedem Diagramm eine Zahl zu, welche die Wahrscheinlichkeit des entsprechenden Ereignisses angibt.

»Mit Hilfe der Unitaritätsmethode können wir tatsächlich Berechnungen durchführen, die früher als hoffnungslos schwierig galten«

Leider ist die Anzahl der möglichen Diagramme enorm - im Prinzip unendlich groß. Für den von Feynman ursprünglich anvisierten Zweck machte dieser Nachteil nichts aus. Er untersuchte die Quantenelektrodynamik (QED), die beschreibt, wie Elektronen mit Photonen wechselwirken. Die charakteristische Größe der Wechselwirkung, die so genannte Kopplungskonstante, beträgt in diesem Fall rund 1/137. Der kleine Wert sorgt dafür, dass komplizierte Diagramme in der Berechnung eine geringe Rolle spielen und oft ganz ignoriert werden können. Um im Vergleich zu bleiben: Der U-Bahn-Fahrer nimmt wahrscheinlich eine einfache Strecke.

Zwei Jahrzehnte später erweiterten die Physiker Feynmans Methode auf die starke Kraft, welche die Quantenchromodynamik (QCD) theoretisch beschreibt. Auch hier gibt es eine Kopplungskonstante, doch deren Wert ist, wie schon das Wort »stark« nahelegt, größer als bei der elektromagnetischen Wechselwirkung. Das erhöht zunächst die Anzahl komplizierter Diagramme, die in den Rechnungen berücksichtigt werden müssen - als würde ein U-Bahn-Fahrer bereitwillig große Umwege nehmen und damit ein schlecht vorhersagbares Verhalten zeigen. Zum Glück verschwindet die Kopplungskonstante für sehr kurze Abstände, wie sie bei den extrem energiereichen Prozessen im LHC entscheidend sind. Darum reicht es für die einfachsten Kollisionen wiederum aus, nur unkomplizierte Feynman-Diagramme zu berücksichtigen.


Grenzen des Feynman-Diagramms

Doch bei unübersichtlichen Teilchenprozessen wird die Methode äußerst unhandlich. Man klassifiziert Feynman-Diagramme nach der Anzahl der externen Linien sowie der darin enthaltenen geschlossenen Schleifen (siehe Kasten in der Druckausgabe). Die Schleifen spiegeln eine grundlegende Eigenheit der Quantentheorie wider: Es gibt darin virtuelle Teilchen. Diese sind nicht direkt beobachtbar, üben aber einen messbaren Einfluss auf die Stärke der Naturkräfte aus. Virtuelle Teilchen gehorchen den üblichen Naturgesetzen, insbesondere der Energie- und Impulserhaltung, mit einer Einschränkung: Ihre Masse kann von derjenigen der »realen« - direkt beobachtbaren - Partikel abweichen. Die Schleifen symbolisieren ihr flüchtiges Dasein. Sie entstehen, bewegen sich ein winziges Stück weit und verschwinden wieder. Ihre Masse bestimmt ihre Lebenserwartung: je schwerer, desto kurzlebiger.

Die einfachsten Feynman-Diagramme - so genannte Baumdiagramme - vernachlässigen die virtuellen Teilchen; sie enthalten keine geschlossenen Schleifen. Für die Quantenelektrodynamik zeigen sie zwei Elektronen, die einander durch Austausch eines Photons abstoßen. In komplizierteren Diagrammen kommen dann sukzessive Schleifen hinzu, die Physiker als Störungsterme bezeichnen. Dabei beginnt man mit einer groben Schätzung in Form eines Baumdiagramms und verbessert sie schrittweise durch Hinzufügen von »Störungen« in Form von Schleifen. Beispielsweise kann sich das Photon auf seinem Weg zwischen den beiden Elektronen spontan in ein virtuelles Elektron und ein virtuelles Antielektron aufspalten, die einander sofort vernichten und wieder ein Photon erzeugen. Dieses setzt den Weg des ursprünglichen Photons fort. Auf der nächsten Komplexitätsebene können sich Elektron und Antielektron ihrerseits vorübergehend aufspalten. Mit zunehmender Anzahl virtueller Teilchen beschreiben die Diagramme die Quanteneffekte immer genauer.

Selbst Baumdiagramme können sich als schwierig erweisen. Würde man im Fall der QCD einen Zusammenstoß zwischen zwei Gluonen betrachten, aus dem acht Gluonen hervorgehen, so müsste man zehn Millionen Baumdiagramme zeichnen und für jedes die Wahrscheinlichkeit berechnen. Ein Ansatz namens Rekursion, den Frits Berends an der Universität Leiden (Niederlande) und Walter Giele vom Fermi National Acceleration Laboratory in Batavia (US-Bundesstaat Illinois) in den 1980er Jahren entwickelten, vereinfacht zwar das Problem bei Baumdiagrammen, lässt sich aber nicht ohne Weiteres auf Schleifen erweitern. Geschlossene Schleifen erschweren die Rechenaufgabe enorm. Schon eine einzige erhöht Anzahl und Komplexität der Diagramme fast ins Unermessliche. Die mathematischen Formeln könnten eine ganze Enzyklopädie füllen. Auch die Rechenkraft leistungsfähigster Computer vermag mit dem Anstieg der Komplexität nur ein Stück weit Schritt zu halten; bald unterliegen sie der wachsenden Anzahl externer Teilchen oder interner Schleifen.


Über die übliche Methode hinaus

Zudem werden die zunächst anschaulichen Diagramme rasch völlig unübersichtlich. Schon einzelne Feynman-Graphen sind oft undurchdringlich verschnörkelt, und wenn wir mit vielen jonglieren müssen, verlieren wir jeden Kontakt mit der eigentlichen Physik. Erstaunlicherweise kann sich das Endresultat, das aus dem Aufsummieren sämtlicher Diagramme hervorgeht, als ganz einfach herausstellen. Unterschiedliche Diagramme heben einander teilweise auf, und manchmal reduzieren sich Formeln mit Millionen Termen auf einen einzigen Ausdruck. Solche Aufhebungen deuten an, dass die Diagramme das falsche Werkzeug sind. Es muss eine bessere Methode geben.

Jahrelang probierten die Physiker viele neue Rechenmethoden aus, bis sich allmählich eine Alternative zu den Feynman-Diagrammen abzeichnete. Wie die Koautoren Bern und Kosower in den frühen 1990er Jahren zeigten, vermag die Stringtheorie die QCD-Rechnungen so zu vereinfachen, dass alle relevanten Feynman-Diagramme zu einer einzigen Formel zusammengefasst werden. Mit dieser Formel analysierten wir drei eine Teilchenreaktion, die zuvor niemand genau verstanden hatte: die Streuung von zwei Gluonen, aus der drei Gluonen entstehen, mit einer Schleife aus virtuellen Teilchen. Dieser Vorgang war für damalige Verhältnisse sehr kompliziert, ließ sich aber nun durch eine erstaunlich simple Formel, die auf eine DIN-A4-Seite passte, vollständig beschreiben.

Die Formel war so einfach, dass wir gemeinsam mit David Dunbar, der damals an der University of California in Los Angeles forschte, den Streuvorgang fast vollständig mit Hilfe eines Prinzips namens Unitarität interpretieren konnten. Es beschreibt die Forderung, dass die Wahrscheinlichkeiten aller möglichen Ergebnisse sich auf 100 Prozent summieren müssen. Genau genommen geht es um die Quadratwurzel der Wahrscheinlichkeiten, aber das spielt hier keine besondere Rolle. Die Unitarität gehört auch schon zu Feynmans Methode, wird dort aber durch die komplizierten Berechnungen verdeckt. Unser Verfahren stellt das Prinzip in den Vordergrund.

Die Unitaritätsmethode ist so erfolgreich, weil sie den direkten Gebrauch virtueller Teilchen vermeidet; die sind ja der Hauptgrund für die Unhandlichkeit der Feynman-Diagramme. Solche Teilchen haben sowohl reale als auch unechte Effekte. Letztere müssen sich per definitionem aus dem Endergebnis herauskürzen; sie sind mathematischer Ballast, den Physiker nur zu gern abwerfen.

Um die Methode zu verstehen, vergleichen wir sie wie oben mit einem komplizierten Verkehrssystem wie der Londoner U-Bahn, mit jeweils mehreren möglichen Verbindungen zwischen den Stationen. Angenommen, wir suchen die Wahrscheinlichkeit dafür, dass eine Person, die bei Mile End eingestiegen ist, die U-Bahn bei Wimbledon verlässt. Das Feynman-Verfahren summiert die Wahrscheinlichkeiten aller möglichen Wege: nicht nur der Schienenstrecken, sondern auch jener durch natürliches Felsgestein ohne U-Bahn-Linien oder Tunnel. Diese unrealistischen Wege entsprechen den Beiträgen, die von den Schleifen der virtuellen Teilchen stammen. Sie heben sich zwar am Ende auf, aber bei den Zwischenstufen der Berechnung müssen wir sie alle berücksichtigen. Beim Unitaritätsansatz betrachten wir nur sinnvolle Pfade. Wir berechnen die Wahrscheinlichkeit, dass eine Person einen bestimmten Weg wählt, indem wir das Problem unterteilen: Mit welcher Wahrscheinlichkeit geht die Person an jedem Punkt der Fahrt durch dieses Drehkreuz, nimmt diesen oder jenen Fußweg? Diese Vorgehensweise schränkt das Ausmaß der Berechnungen drastisch ein.

Die Entscheidung zwischen Feynman-Verfahren und Unitaritätsmethode ist keine Frage von richtig oder falsch. Beide drücken dieselben physikalischen Grundprinzipien aus. Beide führen letztlich zu denselben Wahrscheinlichkeitswerten. Doch sie stellen unterschiedliche Beschreibungsebenen dar. Ein einzelnes Feynman-Diagramm unter den zehntausenden, die für eine unübersichtliche Kollision erforderlich sind, gleicht einem Wassermolekül in einem Tropfen. Im Prinzip könnte man das Verhalten einer Flüssigkeit bestimmen, indem man sämtliche Moleküle einzeln verfolgt, aber das wäre höchstens für ein mikroskopisch kleines Tröpfchen sinnvoll. Normalerweise ist das nicht nur mühsam, sondern vielleicht auch gar nicht aufschlussreich. Wenn Wasser etwa einen Hügel hinabfließt, geht das aus der molekularen Beschreibung kaum hervor. Besser betrachtet man Eigenschaften einer höheren Beschreibungsebene wie Strömungsgeschwindigkeit, Dichte und Druck (siehe »Komplexität und Emergenz« von Michael Springer in diesem Heft ab S. 48). Ebenso können Physiker nun eine Teilchenkollision ganzheitlich betrachten, statt sie Stück für Stück aus separaten Feynman-Diagrammen zu rekonstruieren. Wir konzentrieren uns auf die Eigenschaften, die den gesamten Prozess charakterisieren: die Unitarität sowie spezielle mit ihr zusammenhängende Symmetrien. In Sonderfällen vermögen wir sogar absolut präzise theoretische Vorhersagen zu treffen - was mit der Feynman-Methode unendlich viele Diagramme und unendlich lange Zeit erfordern würde.

Es gibt noch weitere Vorteile. Nachdem wir die Unitaritätsmethode für virtuelle Teilchenschleifen entwickelt hatten, fügten Ruth Britto, Freddy Cachazo, Bo Feng und Edward Witten am Institute for Advanced Study in Princeton (New Jersey) eine wichtige Ergänzung hinzu. Sie nahmen sich erneut die Baumdiagramme vor und berechneten die Wahrscheinlichkeit einer Kollision, an der beispielsweise fünf Teilchen beteiligt sind, mit Hilfe der Wahrscheinlichkeit einer Vierteilchenkollision mit anschließender Aufspaltung eines Teilchens in zwei Partikel. Das ist ein verblüffender Trick, denn eine Fünfteilchenkollision sieht normalerweise ganz anders aus als diese zwei aufeinander folgenden Vorgänge. Doch er zeigt: Komplizierte Teilchenprozesse lassen sich vielfach in einfachere Stücke unterteilen.


Schmutzige Explosionen

Die Protonenzusammenstöße am LHC verlaufen besonders komplex. Feynman selbst verglich solche Experimente mit dem Versuch, das Innenleben von Schweizer Uhren zu ergründen, indem man sie paarweise zertrümmert. Protonen bestehen aus Quarks und Gluonen, die durch die starke Kraft zusammengehalten werden. Beim Zusammenstoß können Quarks von Quarks abprallen, Quarks von Gluonen, Gluonen von Gluonen. Quarks und Gluonen können sich in weitere Quarks und Gluonen aufspalten. Schließlich bilden sie zusammengesetzte Teilchen, die in schmalen Spritzern - so genannten Jets - aus dem Beschleuniger schießen.

Irgendwo in diesem Durcheinander könnte sich etwas völlig Unbekanntes verbergen - neue Partikel, neue Symmetrien, vielleicht sogar neue Dimensionen der Raumzeit. Doch wie will man das herausfinden? In unseren Detektoren sehen exotische Teilchen zunächst ziemlich normal aus. Die Unterschiede sind klein und unauffällig. Erst mit der Unitaritätsmethode können wir die herkömmliche Physik so präzise beschreiben, dass das Ungewöhnliche heraussticht.

Zum Beispiel kam Joe Incandela von der University of California in Santa Barbara, der gegenwärtig als Sprecher des CMS-Experiments mehr als 2000 CERN-Physiker vertritt, mit folgendem Problem zu uns. Sein Team sucht nach den exotischen Teilchen, aus denen die rätselhafte Dunkle Materie im Universum besteht. Falls der LHC solche Partikel erzeugt, könnte der CMS-Detektor sie nicht direkt identifizieren, sondern bloß einen gewissen Energieschwund feststellen - doch der kann auch andere Gründe haben. Beispielsweise produziert der LHC häufig ein gewöhnliches Teilchen namens Z-Boson, das in einem Fünftel aller Fälle in zwei Neutrinos zerfällt. Auch diese verlassen wegen ihrer sehr schwachen Wechselwirkung den Detektor, ohne sich anders bemerkbar zu machen als durch einen scheinbaren Energieschwund. Die Frage ist: Wie lässt sich die Anzahl von Teilchen des Standardmodells vorhersagen, die sich im Detektor verhalten, als wären sie Partikel der Dunklen Materie?

»Mit unserer Methode können wir die herkömmliche Teilchenphysik so präzise beschreiben, dass das Ungewöhnliche heraussticht«

Incandelas Gruppe machte einen Lösungsvorschlag: Man nehme die Anzahl der vom CMS-Detektor erfassten Photonen, schließe daraus auf die Anzahl der Ereignisse, bei denen Neutrinos entstehen, und prüfe, ob sie den Energieschwund restlos erklären. Andernfalls darf man schließen, dass der LHC Dunkle Materie erzeugt. Diese Idee ist typisch für die indirekten Schätzungen, auf welche die Experimentalphysiker immer dann angewiesen sind, wenn sie bestimmte Partikeltypen nicht direkt beobachten können. Doch dafür musste Incandelas Team präzise wissen, wie die Anzahl der Photonen mit jener der Neutrinos zusammenhängt; sonst versagt der Zugang durch die Hintertür.

Wir untersuchten das Problem mit Hilfe unseres neuen theoretischen Werkzeugs und stellten damit fest, dass die Genauigkeit ausreichte. Nun konnte das CMS-Team auf seine Technik vertrauen und zuverlässige Bedingungen für Dunkle-Materie-Teilchen definieren - unsere Methode hatte sich bewährt.

Dieser Erfolg ermutigte uns zu ehrgeizigeren Berechnungen. Wir arbeiten mit einer weltweiten Kollaboration von Teilchenphysikern zusammen, zu der Fernando Febres Cordero von der Simón-Bolívar-Universität in Caracas (Venezuela), Harald Ita von der Universität Tel Aviv (Israel), Daniel Mâitre von der Durham University (England), Stefan Höche vom Stanford Linear Accelerator Center in Menlo Park (Kalifornien) und Kemal Ozeren von der University of California in Los Angeles gehören. Gemeinsam machten wir exakte Vorhersagen für die Wahrscheinlichkeit, dass bei Kollisionen im LHC ein Neutrinopaar und vier Jets entstehen. Mit Feynman-Diagrammen würde diese Rechnung sogar ein großes Physikerteam überfordern, das zehn Jahre lang modernste Computer einsetzt. Mit der Unitaritätsmethode brauchten wir dafür weniger als ein Jahr. Unterdessen hat die Atlas-Kollaboration am LHC unsere Vorhersagen mit ihren Daten verglichen und beste Übereinstimmung festgestellt. Diese Resultate helfen den Forschern bei ihrer künftigen Suche nach neuen Teilchen.

Auch beim kürzlich erfolgten Nachweis des Higgs-Bosons spielte die Unitaritätsmethode eine wichtige Rolle. Ein Anzeichen für das Higgs ist die Erzeugung eines einzelnen Elektrons, zweier Jets und eines Neutrinos, wobei das Neutrino wiederum den Eindruck erweckt, Energie sei verloren gegangen. Das Gleiche kann aber auch bei Teilchenreaktionen entstehen, an denen kein Higgs beteiligt ist. Mit der Unitaritätsmethode berechneten wir die exakte Wahrscheinlichkeit dieser täuschenden Reaktionen.


Die störrische Schwerkraft

Sogar für ein Grundproblem der Physik verspricht die neue Vorgehensweise eine Lösung. Um eine völlig widerspruchsfreie Theorie aller Naturkräfte zu entwickeln, muss die Gravitation in einen quantenmechanischen Rahmen eingebaut werden. Die Quantenteilchen der Gravitation, die Gravitonen, sollten wie andere Partikel zusammenstoßen und gestreut werden. Dafür kann man im Prinzip Feynman-Diagramme zeichnen. Doch in den 1980er Jahren führten alle Versuche, die Gravitonenstreuung durch eine möglichst einfache Quantisierung der einsteinschen Theorie zu beschreiben, zu unsinnigen Resultaten - insbesondere zu unendlich großen Werten für endliche physikalische Größen. Das wäre an sich kein Problem: Auch im Standardmodell treten in den Rechnungen unterwegs Unendlichkeiten auf, doch am Ende heben sie sich auf. Bei der Gravitation schien das nicht zu funktionieren. Die Quantenfluktuationen der Raumzeit, vom amerikanischen Theoretiker John Wheeler (1911-2008) »Raumzeitschaum« getauft, geraten scheinbar völlig außer Rand und Band.

Eine mögliche Erklärung wäre, dass in der Natur unbekannte Teilchen vorkommen, welche die Quanteneffekte in Schranken halten. Diese Idee, die so genannte Supergravita tion, wurde in den 1970er und 1980er Jahren intensiv erforscht. Das Interesse erlahmte, weil auch in dem Fall bei drei oder mehr virtuellen Teilchenschleifen unsinnige Unendlichkeiten auftauchten. Damit galt die Supergravitation als Fehlschlag.

Daraufhin wandten sich viele Theoretiker der Stringtheorie zu. Sie unterscheidet sich grundlegend vom Standardmodell. Partikel wie Quarks, Gluonen und Gravitonen sind nun nicht mehr winzige Punkte, sondern Schwingungen von eindimensionalen Saiten oder Strings. Die Wechselwirkungen zwischen den Teilchen konzentrieren sich nicht auf einen unendlich kleinen Punkt, sondern erstrecken sich über die Strings; das schließt Unendlichkeiten automatisch aus. Allerdings hat auch die Stringtheorie ihre Probleme; insbeson dere macht sie keine eindeutigen Vorhersagen für beobachtbare Phänomene.


Heilsame Verdoppelung

Mitte der 1990er Jahre versuchte Stephen Hawking von der University of Cambridge die Supergravitation zu rehabilitieren. Er argumentierte, die früheren Berechnungen hätten unzulässige Abkürzungen genommen. Doch Hawking konnte niemanden überzeugen, denn für die Abkürzungen gab es gute Gründe: Die vollständigen Rechnungen waren hoffnungslos umständlich. Um wirklich zu wissen, ob ein Feynman-Diagramm mit drei virtuellen Gravitonschleifen unendliche Werte erzeugt, müsste man 1020 mathematische Ausdrücke ausrechnen. Ein Diagramm mit fünf Schleifen liefert 1030 Terme - ungefähr einen Ausdruck für jedes Atom eines LHC-Detektors. Das Thema schien in den Papierkorb für unlösbare Probleme zu gehören.

Die Unitaritätsmethode hat die Situation völlig verändert und die Supergravitation praktisch rehabilitiert. Eine Rechnung, die nach der Feynman-Methode 1020 Terme lösen müsste, schaffen wir mit ein paar Dutzend Rechenschritten. Zusammen mit Radu Roiban von der Pennsylvania State University sowie mit John Joseph Carrasco und Henrik Johansson von der University of California in Los Angeles entdeckten wir, dass die Überlegungen aus den 1980er Jahren falsch waren. Vermeintlich unendliche Größen sind in Wirklichkeit endlich. Die Supergravitation erwies sich damit als nicht so unsinnig, wie die Physiker dachten. Das bedeutet konkret: Die Quantenfluktuationen der Raumzeit sind in der Supergravitation viel harmloser als früher angenommen. Wir möchten die kühne Spekulation wagen, dass eine Version dieser Theorie die lange gesuchte Quantengravitation darstellt.

Besonders bemerkenswert: Drei Gravitonen wechselwirken miteinander genau wie je zwei Kopien von drei miteinander wechselwirkenden Gluonen. Diese Doppelkopie-Regel gilt anscheinend unabhängig davon, wie viele Teilchen gestreut werden oder wie viele virtuelle Teilchenschleifen beteiligt sind. Das bedeutet, dass die Gravitation gleichsam das Quadrat der starken Kraft darstellt. Wir sind noch dabei, die abstrakte Mathematik in konkrete Physik zu übersetzen und zu prüfen, ob das unter allen Bedingungen gilt. Auf jeden Fall scheint sich die Gravitation wohl gar nicht so sehr von den anderen Naturkräften zu unterscheiden.

»Die Quantenfluktuationen von Raum und Zeit sind in der Supergravitation viel harmloser als früher angenommen«

Ist die Supergravitation völlig frei von Unendlichkeiten? Oder zähmt ihre hochgradige Symmetrie nur einige ihrer Exzesse, solange wenige Schleifen im Spiel sind? Im letzteren Fall sollten bei fünf Schleifen Probleme auftauchen; von sieben Schleifen an würden die Quanteneffekte so stark, dass Unendlichkeiten entstünden. Bislang haben wir immerhin eine Wette unter Kollegen gewonnen, dass die Methode nicht nur für drei, sondern auch für vier Schleifen funktioniert. Der Teilchenphysiker und Stringtheoretiker David Gross (Nobelpreis 2004) von der University of California in Santa Barbara setzte nun eine Flasche kalifornischen Zinfandel darauf, dass bei sieben Schleifen Unendlichkeiten auftreten. Um diese zweite Wette zu entscheiden, haben einige von uns neue Rechnungen begonnen. Ein Sieg würde die Skeptiker vielleicht endgültig überzeugen, dass die Supergravitation widerspruchsfrei ist. Doch selbst dann erfasst die Theorie andere Effekte nicht; diese so genannten nichtstörungstheoretischen Beiträge sind so winzig, dass sie in unserem Ansatz nicht vorkommen. Für sie mag eine noch tiefgründigere Theorie zuständig sein - vielleicht die Stringtheorie.

Physiker stellen sich gern vor, dass neue Theorien aus den kühnen Pinselstrichen neuer Grundprinzipien hervorgehen - Relativitätstheorie, Quantenmechanik, Symmetrie. Doch manchmal entstehen solche Theorien auch durch sorgfältiges Überprüfen schon bekannter Prinzipien. Auf Grund einer stillen Umwälzung der Ansichten über Teilchenkollisionen können wir jetzt feine Details des Standardmodells herausarbeiten und vermögen in neues physikalisches Terrain vorzudringen. Zusätzlich entdecken wir dabei einen vernachlässigten Aspekt der alten Physik, der uns einen überraschenden Weg zur Vereinigung der Gravitation mit den anderen Kräften weist. In dieser Hinsicht gleicht der Versuch, die Geheimnisse der Teilchenstreuung zu lösen, nicht einer U-Bahnfahrt mit bereits vorgegebenem Ziel, sondern dem Aufbruch zu einer Reise voll unvorhergesehener Wendungen.


DIE AUTOREN
Zvi Bern (links) ist Physikprofessor an der University of California in Los Angeles. Lance J. Dixon, (Mitte) Professor am Stanford Linear Accelerator Center in Menlo Park (Kalifornien), verbrachte 2011 ein akademisches Jahr am europäischen Forschungszentrum CERN bei Genf und beriet die Experimentalphysiker in der Anwendung der in diesem Artikel beschriebenen Theorien. David A. Kosower ist leitender Wissenschaftler am Forschungszentrum Saclay des französischen Commissariat à l'énergie atomique et aux énergies alternatives.


QUELLEN
Berger, C. F. et al.: Precise Predictions for W+4 Jet Production at the Large Hadron Collider. In: Physical Review Letters 106, Nr. 9, 2011
Blau, S. K.: Lovely as a Tree Amplitude: Hidden Structures Underlie Feynman Diagrams. In: Physics Today 57, S. 19 - 21, 2004
Kaiser, D.: Physics and Feynman's Diagrams. In: American Scientist 93, S. 156 - 165, 2005
Stelle, K.: Supergravity: Finite after All? In: Nature Physics 3, S. 448 - 450, 2007


LITERATURTIPP
Feynman, R. P.: QED: Die seltsame Theorie des Lichts und der Materie. Piper, München 1992
Der Schöpfer der Feynman-Diagramme erläutert, wie sie in der Quantenelektrodynamik funktionieren.


WEBLINK
Diesen Artikel sowie weiterführende Informationen finden Sie im Internet: www.spektrum.de/artikel/1157698


Bildunterschriften der im Schattenblick nicht veröffentlichten Abbildungen der Originalpublikation:

Abb. S. 41:
Feynman-Diagramme
Unentwegt und überall ziehen Elementarteilchen einander an oder stoßen sich ab, kollidieren, verändern sich oder vernichten einander. Um das quantenmechanische Wirrwarr zu ordnen, erfand Nobelpreisträger Richard Feynman die nach ihm benannten Diagramme. Im Beispiel unten wechselwirken zwei Quarks und erzeugen ein Gluon und ein W-Boson.

Abb. S. 42:
Wo Feynman versagt Jedes Feynman-Diagramm stellt auf anschauliche Weise eine mögliche Wechselwirkung zwischen Teilchen dar. Doch es gibt unzählig viele andere Möglichkeiten. Eine Wechselwirkung zwischen zwei Quarks kann mehr als ein Gluon erzeugen oder mehr als eine virtuelle Teilchenschleife enthalten - oder beides. Die Berechnungen werden rasch undurchführbar.


© 2012 Zvi Bern, Lance J. Dixon, David A. Kosower, Spektrum der Wissenschaft Verlagsgesellschaft mbH, Heidelberg

*

Quelle:
Spektrum der Wissenschaft 9/12 - September 2012, Seite 38 - 45
Herausgeber: Spektrum der Wissenschaft Verlagsgesellschaft mbH
Slevogtstraße 3-5, 69126 Heidelberg
Telefon: 06221/9126-600, Fax 06221/9126-751
Redaktion:
Telefon: 06221/9126-711, Fax 06221/9126-729
E-Mail: redaktion@spektrum.com
Internet: www.spektrum.de
 
Spektrum der Wissenschaft erscheint monatlich.
Das Einzelheft kostet 7,90 Euro, das Abonnement 84,00 Euro pro Jahr
für 12 Hefte.


veröffentlicht im Schattenblick zum 24. November 2012