Was ist Quantenmechanik?

Die Quantenmechanik ist der Zweig der Physik, der sich auf das sehr Kleine bezieht.

Daraus ergeben sich einige sehr seltsame Schlussfolgerungen über die physische Welt. Auf der Skala der Atome und Elektronen sind viele der Gleichungen der klassischen Mechanik, die beschreiben, wie sich Dinge bei alltäglichen Größen und Geschwindigkeiten bewegen, nicht mehr nützlich. In der klassischen Mechanik existieren Objekte an einem bestimmten Ort zu einer bestimmten Zeit. In der Quantenmechanik existieren Objekte stattdessen in einem Nebel der Wahrscheinlichkeit; Sie haben eine gewisse Chance, bei Punkt A zu sein, eine weitere Chance, bei Punkt B zu sein und so weiter.

Die Quantenmechanik (QM) entwickelte sich über viele Jahrzehnte und begann als eine Reihe kontroverser mathematischer Erklärungen von Experimenten, die die Mathematik der klassischen Mechanik nicht erklären konnte. Es begann um die Wende des 20. Jahrhunderts, etwa zur gleichen Zeit, als Albert Einstein seine Relativitätstheorie veröffentlichte, eine eigene mathematische Revolution in der Physik, die die Bewegung der Dinge mit hoher Geschwindigkeit beschreibt. Anders als die Relativitätstheorie kann der Ursprung von QM jedoch keinem Wissenschaftler zugeordnet werden. Vielmehr haben mehrere Wissenschaftler zu einer Grundlage von drei revolutionären Prinzipien beigetragen, die zwischen 1900 und 1930 allmählich Akzeptanz und experimentelle Verifikation gefunden haben. Sie sind:

Quantifizierte Eigenschaften: Bestimmte Eigenschaften wie Position, Geschwindigkeit und Farbe können manchmal nur in bestimmten, festgelegten Mengen auftreten, ähnlich wie bei einem Zifferblatt, das von Nummer zu Nummer "klickt". Dies stellte eine fundamentale Annahme der klassischen Mechanik in Frage, wonach solche Eigenschaften auf einem glatten, kontinuierlichen Spektrum existieren sollten. Um die Idee zu beschreiben, dass einige Eigenschaften wie ein Zifferblatt mit bestimmten Einstellungen "geklickt" haben, prägten Wissenschaftler das Wort "quantisiert".

Lichtteilchen: Licht kann sich manchmal wie ein Teilchen verhalten. Dies stieß zunächst auf scharfe Kritik, da es im Gegensatz zu 200 Jahren Experimente stand, die zeigten, dass Licht sich wie eine Welle verhielt. ähnlich wie Wellen auf der Oberfläche eines ruhigen Sees. Licht verhält sich ähnlich, indem es von Wänden abprallt und sich um Ecken biegt, und dass Wellenberge und -täler sich summieren oder aufheben können. Hinzugefügte Wellenberge ergeben helleres Licht, während Wellen, die sich ausgleichen, Dunkelheit erzeugen. Eine Lichtquelle kann man sich als einen Ball auf einem Stock vorstellen, der rhythmisch in die Mitte eines Sees getaucht wird. Die emittierte Farbe entspricht dem Abstand zwischen den Kämmen, der durch die Geschwindigkeit des Ballrhythmus bestimmt wird.

Wellen der Materie: Materie kann sich auch wie eine Welle verhalten. Dies widersprach den ungefähr 30 Jahren der Experimente, die zeigten, dass Materie (wie Elektronen) als Teilchen existiert.

Quantifizierte Eigenschaften?

Im Jahr 1900 versuchte der deutsche Physiker Max Planck, die Verteilung von Farben, die über das Spektrum emittiert wurden, im Glühen von glühenden und weißglühenden Objekten wie Glühbirnenfilamenten zu erklären. Als Planck die Gleichung, die er zur Beschreibung dieser Verteilung entwickelt hatte, physikalisch wahrnahm, erkannte er, dass Kombinationen von nur bestimmten Farben (wenn auch eine große Anzahl von ihnen) emittiert wurden, insbesondere solche, die ganzzahlige Vielfache eines Grundwerts waren. Irgendwie wurden Farben quantisiert! Dies war unerwartet, da Licht so verstanden wurde, dass es als Welle wirkt, was bedeutet, dass Farbwerte ein kontinuierliches Spektrum sein sollten. Was könnte Atomen verbieten, die Farben zwischen diesen ganzzahligen Vielfachen zu erzeugen? Das erschien so seltsam, dass Planck die Quantisierung als nichts anderes als einen mathematischen Trick ansah. Laut Helge Kragh in seinem Artikel in der Zeitschrift "Physics World" aus dem Jahr 2000, "Max Planck, der widerstrebende Revolutionär", "Wenn im Dezember 1900 eine Revolution in der Physik stattfand, schien es niemand zu bemerken. Planck war keine Ausnahme ..."

Die Planck'sche Gleichung enthielt auch eine Zahl, die später für die zukünftige Entwicklung von QM sehr wichtig werden würde; heute ist es als "Planck'sche Konstante" bekannt.

Quantisierung half, andere Geheimnisse der Physik zu erklären. Im Jahr 1907 benutzte Einstein die Planck'sche Quantisierungshypothese, um zu erklären, warum sich die Temperatur eines Festkörpers um verschiedene Beträge änderte, wenn man die gleiche Wärmemenge in das Material einführte, aber die Starttemperatur änderte.

Seit den frühen 1800er Jahren hatte die Wissenschaft der Spektroskopie gezeigt, dass verschiedene Elemente bestimmte Farben des Lichts emittieren und absorbieren, die "Spektrallinien" genannt werden. Obwohl die Spektroskopie eine zuverlässige Methode zur Bestimmung der in Objekten wie fernen Sternen enthaltenen Elemente war, wunderten sich die Wissenschaftler darüber Warum jedes Element gab diese spezifischen Linien an erster Stelle ab. Im Jahr 1888 leitete Johannes Rydberg eine Gleichung ab, die die vom Wasserstoff emittierten Spektrallinien beschreibt, obwohl niemand erklären konnte, warum die Gleichung funktionierte. Dies änderte sich 1913, als Niels Bohr die Planck'sche Quantisierungshypothese auf Ernest Rutherfords "Planeten" -Modell von 1911 anwendete, das postulierte, dass Elektronen den Kern auf die gleiche Weise umkreisen wie Planeten die Sonne umkreisen. Laut Physik 2000 (ein Standort der Universität von Colorado) schlug Bohr vor, dass Elektronen auf "spezielle" Bahnen um den Atomkern beschränkt seien. Sie konnten zwischen speziellen Umlaufbahnen "springen", und die vom Sprung erzeugte Energie verursachte spezifische Farben des Lichtes, beobachtet als Spektrallinien. Obwohl quantisierte Eigenschaften erfunden wurden als nur ein mathematischer Trick, erklärten sie so sehr, dass sie das Grundprinzip der QM wurden.

Lichtteilchen?

Im Jahr 1905 veröffentlichte Einstein eine Abhandlung über "einen heuristischen Standpunkt zur Emission und Transformation des Lichts", in der er sich das Licht vorstellte, das nicht als Welle, sondern als eine Art von "Energiequanten" wandert. Dieses Energiepaket könnte, so Einstein, "nur als Ganzes absorbiert oder erzeugt werden", insbesondere wenn ein Atom zwischen quantisierten Schwingungsraten "springt".Dies würde auch zutreffen, wie einige Jahre später gezeigt werden, wenn ein Elektron zwischen quantisierten Bahnen "springt". In diesem Modell enthielten Einsteins "Energiequanten" die Energiedifferenz des Sprunges; wenn sie durch die Planck'sche Konstante geteilt wird, bestimmt diese Energiedifferenz die Farbe des Lichts, das von diesen Quanten getragen wird.

Mit dieser neuen Art, Licht zu sehen, gab Einstein Einblicke in das Verhalten von neun verschiedenen Phänomenen, einschließlich der spezifischen Farben, die Planck als von einem Glühbirnenfaden emittiert beschrieben hat. Es erklärte auch, wie bestimmte Farben des Lichts Elektronen von Metalloberflächen ausstoßen könnten, ein Phänomen, das als "photoelektrischer Effekt" bekannt ist. Allerdings war Einstein nicht ganz berechtigt, diesen Sprung zu machen, sagte Stephen Klassen, ein Associate Professor für Physik an der Universität von Winnipeg. In einem Artikel aus dem Jahr 2008, "The Photoelectric Effect: Rehabilitierung der Geschichte für das Physik-Klassenzimmer", sagt Klassen, dass Einsteins Energiequanten nicht notwendig sind, um all diese neun Phänomene zu erklären. Bestimmte mathematische Behandlungen von Licht als Welle sind immer noch in der Lage, sowohl die spezifischen Farben zu beschreiben, die Planck als von einem Glühbirnenfaden emittiert hat, als auch den photoelektrischen Effekt. Tatsächlich hat das Nobel-Komitee bei Einsteins umstrittenem Sieg über den Nobelpreis von 1921 nur "seine Entdeckung des Gesetzes des photoelektrischen Effekts" anerkannt, die sich spezifisch nicht auf den Begriff der Energiequanten stützte.

Etwa zwei Jahrzehnte nach Einsteins Abhandlung wurde der Begriff "Photon" für die Beschreibung von Energiequanten popularisiert, dank der Arbeit von Arthur Compton von 1923, der zeigte, dass durch einen Elektronenstrahl gestreutes Licht sich in der Farbe änderte. Dies zeigte, dass Lichtteilchen (Photonen) tatsächlich mit Teilchen von Materie (Elektronen) kollidierten, was Einsteins Hypothese bestätigt. Inzwischen war klar, dass sich Licht sowohl als Welle als auch als Teilchen verhalten kann und die "Welle-Teilchen-Dualität" des Lichtes in die Grundlage der QM gebracht wird.

Wellen der Materie?

Seit der Entdeckung des Elektrons im Jahre 1896 wurde langsam bewiesen, dass alle Materie in Form von Teilchen existierte. Dennoch, die Demonstration der Wellen-Teilchen-Dualität des Lichts ließ die Wissenschaftler in Frage stellen, ob Materie auf das Handeln beschränkt war nur als Teilchen. Vielleicht könnte die Welle-Teilchen-Dualität auch für die Materie wahr werden? Der erste Wissenschaftler, der mit dieser Argumentation große Fortschritte machte, war ein französischer Physiker namens Louis de Broglie. De Broglie benutzte 1924 die Gleichungen von Einsteins Theorie der speziellen Relativitätstheorie, um zu zeigen, dass Teilchen wellenartige Eigenschaften aufweisen können und dass Wellen partikelartige Eigenschaften aufweisen können. Dann, im Jahre 1925, haben zwei Wissenschaftler, die unabhängig voneinander arbeiteten und getrennte Linien des mathematischen Denkens benutzten, de Broglies Argumentation angewendet, um zu erklären, wie Elektronen in Atomen herumzischten (ein Phänomen, das mit den Gleichungen der klassischen Mechanik unerklärlich war). In Deutschland hat der Physiker Werner Heisenberg (in Zusammenarbeit mit Max Born und Pascual Jordan) dies durch die Entwicklung der "Matrix-Mechanik" erreicht. Der österreichische Physiker Erwin Schrödinger entwickelte eine ähnliche Theorie namens "Wellenmechanik". Schrödinger zeigte 1926, dass diese beiden Ansätze gleichwertig waren (obwohl der Schweizer Physiker Wolfgang Pauli ein unveröffentlichtes Ergebnis an Jordan schickte, das zeigte, dass die Matrixmechanik vollständiger war).

Das Heisenberg-Schrödinger-Modell des Atoms, in dem jedes Elektron als Welle (manchmal als "Wolke" bezeichnet) um den Kern eines Atoms wirkt, ersetzte das Rutherford-Bohr-Modell. Eine Vorgabe des neuen Modells war, dass die Enden der Welle, die ein Elektron bildet, zusammentreffen müssen. In "Quantenmechanik in der Chemie, 3. Ausgabe" (W. A. ‚Äč‚ÄčBenjamin, 1981) schreibt Melvin Hanna: "Die Auferlegung der Randbedingungen hat die Energie auf diskrete Werte beschränkt." Eine Konsequenz dieser Vorgabe ist, dass nur ganze Zahlen von Kuppen und Tälern erlaubt sind, was erklärt, warum einige Eigenschaften quantisiert werden. In dem Heisenberg-Schrödinger-Modell des Atoms gehorchen Elektronen einer "Wellenfunktion" und besetzen "Orbitale" statt Bahnen. Im Gegensatz zu den kreisförmigen Umlaufbahnen des Rutherford-Bohr-Modells haben Atomorbitale eine Vielzahl von Formen, die von Kugeln über Hanteln bis zu Gänseblümchen reichen.

Im Jahr 1927 entwickelten Walter Heitler und Fritz London die Wellenmechanik weiter, um zu zeigen, wie sich die Atomorbitale zu Molekülorbitalen verbinden lassen, und zeigen so effektiv, warum sich Atome unter Bildung von Molekülen aneinander binden. Dies war ein weiteres Problem, das in der Mathematik der klassischen Mechanik unlösbar war. Aus diesen Erkenntnissen entstand das Gebiet der "Quantenchemie".

Die Unschärferelation

Auch im Jahr 1927 hat Heisenberg einen weiteren wichtigen Beitrag zur Quantenphysik geleistet. Er argumentierte, dass, da Materie als Wellen wirkt, einige Eigenschaften, wie die Position und Geschwindigkeit eines Elektrons, "komplementär" sind, was bedeutet, dass es eine Grenze gibt (bezogen auf die Planck'sche Konstante), wie gut die Genauigkeit jeder Eigenschaft bekannt sein kann. Unter dem, was Heisenbergs Unschärferelation heißen würde, wurde argumentiert, je genauer die Position eines Elektrons bekannt sei, um so weniger sei seine Geschwindigkeit bekannt, und umgekehrt. Diese Unschärferelation gilt auch für Gegenstände von täglicher Größe, ist aber nicht auffällig, da die Ungenauigkeit sehr klein ist. Laut Dave Slaven von Morningside College (Sioux City, IA), wenn die Geschwindigkeit eines Baseballs innerhalb einer Genauigkeit von 0,1 mph bekannt ist, ist die maximale Präzision, um die es möglich ist, die Position des Balls zu kennen, 0,00000000000000000000000000000008 Millimeter.

Weiter

Die Prinzipien der Quantisierung, der Welle-Teilchen-Dualität und der Unschärferelation läuteten eine neue Ära für QM ein.Im Jahr 1927 wandte Paul Dirac ein Quantenverständnis von elektrischen und magnetischen Feldern an, um die "Quantenfeldtheorie" (QFT) zu untersuchen, die Teilchen (wie Photonen und Elektronen) als angeregte Zustände eines zugrundeliegenden physikalischen Feldes behandelte. Die Arbeit in QFT dauerte eine Dekade, bis Wissenschaftler einen Roadblock erreichten: Viele Gleichungen in QFT hörten auf, physikalischen Sinn zu machen, weil sie Ergebnisse von Unendlichkeit produzierten. Nach einem Jahrzehnt der Stagnation gelang Hans Bethe 1947 der Durchbruch mit einer Technik namens "Renormierung". Hier erkannte Bethe, dass alle unendlichen Ergebnisse mit zwei Phänomenen zusammenhingen (speziell "Elektronen-Selbstenergie" und "Vakuumpolarisation"), so dass die beobachteten Werte von Elektronenmasse und Elektronenladung dazu verwendet werden konnten, alle Unendlichkeiten verschwinden zu lassen.

Seit dem Durchbruch der Renormierung hat QFT die Grundlage für die Entwicklung von Quantentheorien über die vier fundamentalen Kräfte der Natur gelegt: 1) Elektromagnetismus, 2) die schwache Kernkraft, 3) die starke Kernkraft und 4) die Schwerkraft. Die erste Erkenntnis, die von QFT geliefert wurde, war eine Quantenbeschreibung des Elektromagnetismus durch "Quantenelektrodynamik" (QED), die in den späten 1940er und frühen 1950er Jahren Fortschritte machte. Als nächstes wurde eine Quantenbeschreibung der schwachen Kernkraft beschrieben, die mit dem Elektromagnetismus vereinheitlicht wurde, um die "elektroschwache Theorie" (EWT) während der gesamten 1960er Jahre aufzubauen. Schließlich kam in den 1960er und 1970er Jahren eine Quantenbehandlung der starken Kernkraft mittels "Quantenchromodynamik" (QCD). Die Theorien von QED, EWT und QCD bilden zusammen die Basis des Standardmodells der Teilchenphysik. Leider hat QFT noch keine Quantentheorie der Gravitation erzeugt. Diese Aufgabe wird heute in den Studien der Stringtheorie und der Schleifen-Quantengravitation fortgeführt.

Robert Coolman ist promovierter Forscher an der Universität von Wisconsin-Madison und beendete seinen Ph.D. in der chemischen Technik. Er schreibt über Mathe, Wissenschaft und wie sie mit Geschichte interagieren. Folge Robert @PrimeViridian. Folge uns @LiveScience, Facebook & Google+.

Zusätzliche Ressourcen

Lassen Sie Ihren Kommentar