Historia Podcasts

Kvantteorins födelse

Kvantteorins födelse


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Den tyska fysikern Max Planck publicerar sin banbrytande studie av strålningens effekt på en ”blackbody” -ämne, och kvantteorin om modern fysik är född.

Genom fysiska experiment visade Planck att energi i vissa situationer kan uppvisa egenskaper hos fysisk materia. Enligt teorier om klassisk fysik är energi enbart ett kontinuerligt vågliknande fenomen, oberoende av egenskaperna hos fysisk materia. Plancks teori hävdade att strålningsenergi består av partikelliknande komponenter, kända som "kvanta". Teorin hjälpte till att lösa tidigare oförklarliga naturfenomen som värmens beteende i fasta ämnen och ljusabsorptionens art på atomnivå. År 1918 belönades Planck med Nobelpriset i fysik för sitt arbete med strålning av svart kropp.

Andra forskare, som Albert Einstein, Niels Bohr, Louis de Broglie, Erwin Schrodinger och Paul M. Dirac, avancerade Plancks teori och möjliggjorde utvecklingen av kvantmekanik - en matematisk tillämpning av kvantteorin som hävdar att energi är både materia och en våg, beroende på vissa variabler. Kvantmekaniken har därmed en sannolikhetssyn på naturen, i skarp kontrast till klassisk mekanik, där alla exakta egenskaper hos föremål i princip är beräkningsbara. Idag är kombinationen av kvantmekanik med Einsteins relativitetsteori grunden för modern fysik.


Tidens födelse: Kvantslingor beskriver universums utveckling

Vad var Big Bang och vad hände innan det? Forskare från Fakulteten för fysik, University of Warsaw har försökt besvara frågan. Inom ramen för loopkvantkraften har de lagt fram en ny teoretisk modell, som kan visa sig vara användbar för att validera hypoteser om händelser före Big Bang. Denna prestation är en av få modeller som beskriver hela Einsteins teori och inte bara dess mycket förenklade version.

Fysiker från fakulteten för fysik, University of Warsaw har lagt fram - på sidorna av Fysisk granskning D -en ny teoretisk modell för kvantgravitation som beskriver rymdtidens framväxt från kvantteorins strukturer. Det är inte bara en av de få modellerna som beskriver hela den allmänna relativitetsteorin som Einstein framförde, utan den är också helt matematiskt konsekvent. "De lösningar som tillämpas gör det möjligt att spåra universums utveckling på ett mer fysiskt acceptabelt sätt än i fallet med tidigare kosmologiska modeller", förklarar professor Jerzy Lewandowski från Fysiska fakulteten, University of Warsaw (FUW).

Medan den allmänna relativitetsteorin tillämpas för att beskriva universum i en kosmologisk skala, tillämpas kvantmekanik för att beskriva verkligheten i en atomskala. Båda teorierna utvecklades i början av 1900 -talet. Deras giltighet har sedan dess bekräftats av mycket sofistikerade experiment och observationer. Problemet ligger i att teorierna utesluter varandra.

Enligt den allmänna relativitetsteorin är verkligheten alltid unikt bestämd (som i klassisk mekanik). Men tid och rum spelar en aktiv roll i händelserna och är själva föremål för Einsteins ekvationer. Enligt kvantfysiken kan man å andra sidan bara få en grov förståelse för naturen. En förutsägelse kan endast göras med sannolikhet att dess precision begränsas av inneboende egenskaper. Men lagarna i de rådande kvantteorierna gäller inte tid och rum. Sådana motsättningar är irrelevanta under standardförhållanden - galaxer utsätts inte för kvantfenomen och kvantgravitation spelar en mindre roll i atomer och partiklar. Ändå måste gravitation och kvanteffekter smälta samman under förhållanden nära Big Bang.

Traditionella kosmologiska modeller beskriver universums utveckling inom ramen för den allmänna relativitetsteorin själv. Ekvationerna i teorins kärna antyder att universum är en dynamisk, ständigt expanderande skapelse. När teoretiker försöker upptäcka hur universum var i svunna tider, når de det stadium där densitet och temperatur i modellen blir oändliga - med andra ord förlorar de sin fysiska känsla. Således kan oändligheterna bara indikera svagheterna i den tidigare teorin och ögonblicket för Big Bang behöver inte betyda universums födelse.

För att få åtminstone viss kunskap om kvantgravitation konstruerar forskare förenklade kvantmodeller, så kallade kvantkosmologiska modeller, där rymdtid och materia uttrycks i ett enda värde eller några värden ensamma. Till exempel förutspår modellen som utvecklats av Ashtekar, Bojowald, Lewandowski, Paw łowski och Singh att kvantgravitation förhindrar ökningen av materiens energitäthet från att överstiga ett visst kritiskt värde (av storleken på Planck -densiteten). Följaktligen måste det ha funnits ett kontraherande universum före Big Bang. När materiatätheten hade nått det kritiska värdet följde en snabb expansion - Big Bang, känd som Big Bounce. Modellen är dock en mycket förenklad leksaksmodell.

Det verkliga svaret på Big Bangs mysterium ligger i en enhetlig kvantteori om materia och gravitation. Ett försök att utveckla en sådan teori är loop quantum gravity (LQG). Teorin hävdar att rymden vävs från endimensionella trådar. "Det är precis som när det gäller ett tyg - även om det till synes är smidigt på avstånd, blir det tydligt på nära håll att det består av ett nätverk av fibrer", beskriver Wojciech Kami ński, MSc från FUW. Sådant utrymme skulle utgöra ett fint tyg - en yta på en kvadratcentimeter skulle bestå av 10 66 trådar.

Fysikerna Marcin Domaga ła, Wojciech Kami ński och Jerzy Lewandowski, tillsammans med Kristina Giesel från Louisiana State University (gäst), utvecklade sin modell inom ramen för loopkvantitet. Utgångspunkterna för modellen är två fält, varav ett är ett gravitationsfält. "Tack vare den allmänna relativitetsteorin vet vi att gravitation är rymdtidens geometri. Vi kan därför säga att vår utgångspunkt är tredimensionellt rymd", förklarar Marcin Domaga ła, PhD (FUW).

Den andra utgångspunkten är ett skalfält - ett matematiskt objekt där ett särskilt värde tillskrivs varje punkt i rymden. I den föreslagna modellen tolkas skalfält som den enklaste formen av materia. Skalärfält har varit kända inom fysiken i åratal, de används bland annat för att beskriva temperatur- och tryckfördelning i rymden. "Vi har valt ett skalärfält eftersom det är det typiska inslaget i samtida kosmologiska modeller och vårt mål är att utveckla en modell som skulle utgöra ytterligare ett steg framåt inom kvantgravitationsforskning", konstaterar professor Lewandowski.

I modellen som utvecklats av fysiker från Warszawa framträder tiden som relationen mellan gravitationens fält (rymden) och skalarfältet - ett ögonblick ges av värdet av skalarfältet. "Vi ställer frågan om rymdens form vid ett givet värde på skalarfältet och Einsteins kvantekvationer ger svaret", förklarar professor Lewandowski. Således framträder fenomenet med tiden som egenskapen för tillståndet för gravitationella och skalära fält och utseendet på ett sådant tillstånd motsvarar födelsen av den välkända rymdtiden. "Det är värt att notera att tiden inte existerar i början av modellen. Inget händer. Handling och dynamik framstår som ett samband mellan fälten när vi börjar ställa frågor om hur ett objekt förhåller sig till ett annat", förklarar professor Lewandowski.

Fysiker från FUW har gjort det möjligt att ge en mer exakt beskrivning av universums utveckling. Medan modeller baserade på den allmänna relativitetsteorin förenklas och antar att gravitationsfältet vid varje punkt i universum är identiskt eller föremål för mindre förändringar, kan gravitationens fält i den föreslagna modellen skilja sig åt på olika punkter i rymden.

Den föreslagna teoretiska konstruktionen är den första så mycket avancerade modellen som kännetecknas av intern matematisk konsistens. Det kommer som den naturliga fortsättningen av forskning om kvantisering av tyngdkraften, där varje ny teori härrör från klassiska teorier. För detta ändamål tillämpar fysiker vissa algoritmer, så kallade kvantiseringar. "Tyvärr för fysiker är algoritmerna långt ifrån exakta. Till exempel kan det följa av en algoritm att ett Hilbert -utrymme behöver konstrueras, men inga detaljer tillhandahålls", förklarar Marcin Domaga ła, MSc. "Vi har lyckats genomföra en fullständig kvantisering och fått en av de möjliga modellerna."

Det finns fortfarande en lång väg kvar, enligt professor Lewandowski: "Vi har utvecklat ett visst teoretiskt maskineri. Vi kan börja fylla det med frågor och det kommer att ge svaren." Teoretiker från FUW tänker bland annat fråga om Big Bounce verkligen förekommer i deras modell. "I framtiden kommer vi att försöka inkludera ytterligare områden i standardmodellen för elementära partiklar i modellen. Vi är själva nyfikna på att ta reda på vad som kommer att hända", säger professor Lewandowski.


Köpenhamnsnätverket

Författare: Kojevnikov, Alexei

  • Beskriver de första vacklande stegen hos tidiga kvantfysiker
  • Följer unga forskares banor i ekonomiskt osäkra och svåra tider
  • Är en del av en samling i fyra volymer som spårar utvecklingen av kvantteori vid fyra europeiska centra

Köp den här boken

  • ISBN 978-3-030-59188-5
  • Digitalt vattenstämplat, DRM-fritt
  • Inkluderat format: EPUB, PDF
  • e -böcker kan användas på alla läsenheter
  • Omedelbar nedladdning av e -bok efter köp
  • ISBN 978-3-030-59187-8
  • Fri frakt för privatpersoner över hela världen
  • Institutionella kunder bör kontakta sin kontohanterare
  • Vanligtvis redo att skickas inom 3 till 5 arbetsdagar, om det finns i lager

Denna bok är en historisk analys av den kvantmekaniska revolutionen och framväxten av en ny disciplin ur perspektivet, inte av en professor, utan av en ny eller verklig doktorsexamen. student bara påbörjar en osäker akademisk karriär i ekonomiskt svåra tider. Kvantmekaniken exploderade till den intellektuella scenen mellan 1925 och 1927, med mer än 200 publikationer över hela världen, de flesta av dem författade av unga forskare under 30 år, doktorander eller postdoktorer. Den resulterande teorin var en kollektiv produkt som ingen enskild myndighet kunde göra anspråk på, men den hade en stor geografisk nick-Köpenhamns institut för teoretisk fysik-där det mesta av det informella, för publicerade idéutbytet inträffade och där varje deltagare i det nya samhället strävade efter att besöka. En sällsynt kombination av omständigheter och resurser - politiska, diplomatiska, finansiella och intellektuella - gjorde att Niels Bohr kunde etablera detta "mekka" av kvantteori utanför traditionella och kraftfullare vetenskapscentrum. Övergångs internationella postdoktorer, snarare än etablerade professorer, utvecklade en forskningskultur som blev källan till stora innovationer inom området. Tillfälliga assistenttjänster, postdoktorala positioner och deras motsvarigheter var det främsta sättet för unga akademiker under den ekonomiska krisperioden och internationella spänningar efter andra världskriget. Osäkra karriärbanor och oförutsägbara drag genom icke-stabila tillfälliga positioner bidrog till deras allmänna uppfattning och tolkningar av den framväxande teorin om kvantmekanik.

Den här boken är en del av en samling i fyra volymer som behandlar början av kvantfysikforskning vid de stora europeiska centren i Göttingen, Köpenhamn, Berlin och München. av Max Planck Institute for the Science of History och Fritz Haber Institute (2006–2012).


Kvantteorins födelse - HISTORIA

Den tyska fysikern Max Planck publicerar sin banbrytande studie av strålningens effekt på en "blackbody" -ämne, och kvantteorin om modern fysik är född.

Genom fysiska experiment visade Planck att energi i vissa situationer kan uppvisa egenskaper hos fysisk materia. Enligt teorier om klassisk fysik är energi enbart ett kontinuerligt vågliknande fenomen, oberoende av egenskaperna hos fysisk materia. Plancks teori ansåg att strålningsenergi består av partikelliknande komponenter, kända som "kvant". Teorin hjälpte till att lösa tidigare oförklarliga naturfenomen som värmens beteende i fasta ämnen och ljusabsorptionens art på atomnivå. År 1918 belönades Planck med Nobelpriset i fysik för sitt arbete med strålning av svart kropp.

Andra forskare, som Albert Einstein, Niels Bohr, Louis de Broglie, Erwin Schrodinger och Paul M. Dirac, avancerade Plancks teori och möjliggjorde utvecklingen av kvantmekanik-en matematisk tillämpning av kvantteorin som hävdar att energi är både materia och en våg, beroende på vissa variabler. Kvantmekaniken har alltså en sannolikhetssyn på naturen, i skarp kontrast till klassisk mekanik, där alla exakta egenskaper hos föremål i princip är beräkningsbara. Idag är kombinationen av kvantmekanik med Einsteins relativitetsteori grunden för modern fysik.


Strängteori representerar en utväxt av S-matristeori, [1] ett forskningsprogram som startades av Werner Heisenberg 1943 [2] efter John Archibald Wheelers introduktion av S-matrisen 1937. [3] Många framstående teoretiker tog upp och förespråkade S-matristeori, med början i slutet av 1950-talet och under hela 1960-talet. Fältet blev marginaliserat och kasserades i mitten av 1970 -talet [4] och försvann på 1980 -talet. Fysiker försummade det för att några av dess matematiska metoder var främmande, och för att kvantkromodynamik ersatte det som ett experimentellt bättre kvalificerat tillvägagångssätt för de starka interaktionerna. [5]

Teorin presenterade en radikal omprövning av grunden för fysiska lagar. Vid 1940 -talet hade det blivit klart att protonen och neutronen inte var spetsliknande partiklar som elektronen. Deras magnetiska ögonblick skilde sig mycket från det för en spetsliknande spin-½ laddad partikel, för mycket för att tillskriva skillnaden till en liten störning. Deras interaktioner var så starka att de sprids som en liten sfär, inte som en punkt. Heisenberg föreslog att de starkt interagerande partiklarna i själva verket var förlängda objekt, och eftersom det finns principiella svårigheter med förlängda relativistiska partiklar, föreslog han att begreppet en rymd-tidpunkt gick sönder i kärnvågsskalor.

Utan utrymme och tid blir det svårt att formulera en fysisk teori. Heisenberg föreslog en lösning på detta problem: att fokusera på de observerbara mängderna - de saker som kan mätas genom experiment. Ett experiment ser bara en mikroskopisk mängd om den kan överföras av en serie händelser till de klassiska enheterna som omger experimentkammaren. Objekten som flyger till oändligheten. är stabila partiklar, i kvantöverlagringar av olika momentumtillstånd.

Heisenberg föreslog att även när utrymme och tid är opålitliga, fungerar föreställningen om momentumtillstånd, som definieras långt bort från den experimentella kammaren, fortfarande. Den fysiska kvantitet han föreslog som grundläggande är den kvantmekaniska amplituden för en grupp inkommande partiklar att förvandlas till en grupp utgående partiklar, och han erkände inte att det fanns några steg emellan.

S-matrisen är den mängd som beskriver hur en samling inkommande partiklar blir till utgående partiklar. Heisenberg föreslog att studera S-matrisen direkt, utan några antaganden om rymd-tidsstruktur. Men när övergångar från det förflutna till det långt framtid sker i ett steg utan mellansteg, blir det svårt att beräkna någonting. I kvantfältsteorin är mellanstegen fluktuationer av fält eller motsvarande fluktuationer av virtuella partiklar. I denna föreslagna S-matristeori finns det inga lokala mängder alls.

Heisenberg föreslog att använda enhetlighet för att bestämma S-matrisen. I alla tänkbara situationer måste summan av kvadraterna i amplituderna vara lika med 1. Denna egenskap kan bestämma amplituden i en kvantfältsteorisk ordning efter ordning i en störningsserie när de grundläggande interaktionerna ges, och i många kvantfältsteorier amplituderna växa för snabbt med höga energier för att skapa en enhetlig S-matris. Men utan extra antaganden om högenergibeteendet räcker inte enhetlighet för att bestämma spridningen, och förslaget ignorerades i många år.

Heisenbergs förslag återupplivades 1956 när Murray Gell-Mann insåg att spridningsförhållanden-som de som upptäcktes av Hendrik Kramers och Ralph Kronig på 1920-talet (se Kramers – Kronig-relationerna)-tillåter formulering av en uppfattning om kausalitet, en uppfattning om att händelser i framtiden skulle inte påverka händelser i det förflutna, även om den mikroskopiska uppfattningen om förflutna och framtid inte är klart definierad. Han insåg också att dessa relationer kan vara användbara vid beräkning av observerbara för stark interaktionsfysik. [6] Dispersionsförhållandena var analytiska egenskaper hos S-matrisen, [7] och de ställde strängare villkor än de som följer av ensamhet ensam. Denna utveckling inom S-matristeorin härrörde från Murray Gell-Mann och Marvin Leonard Goldbergers (1954) upptäckt av korsningssymmetri, ett annat villkor som S-matrisen måste uppfylla. [8] [7]

Framstående förespråkare för det nya tillvägagångssättet "spridningsrelationer" inkluderade Stanley Mandelstam [9] och Geoffrey Chew, [10] båda vid UC Berkeley vid den tiden. Mandelstam upptäckte de dubbla spridningsförhållandena, en ny och kraftfull analytisk form, 1958, [9] och trodde att det skulle ge nyckeln till framsteg i de svårlösliga starka interaktionerna.

I slutet av 1950 -talet hade många starkt interagerande partiklar av allt högre snurr upptäckts, och det blev klart att de inte alla var grundläggande. Medan den japanska fysikern Shoichi Sakata föreslog att partiklarna kunde förstås som bundna tillstånd av bara tre av dem (protonen, neutronen och Lambda se Sakata -modellen), [11] trodde Geoffrey Chew att ingen av dessa partiklar är grundläggande [12] [13] (för detaljer, se Bootstrap -modellen). Sakatas tillvägagångssätt omarbetades på 1960-talet till kvarkmodellen av Murray Gell-Mann och George Zweig genom att göra de hypotetiska beståndsdelarnas laddningar fraktionella och avvisa tanken att de observerades partiklar. På den tiden ansågs Chews tillvägagångssätt mer vanligt eftersom det inte införde fraktionella laddningsvärden och för att det fokuserade på experimentellt mätbara S-matriselement, inte på hypotetiska punktliknande beståndsdelar.

År 1959 upptäckte Tullio Regge, en ung teoretiker i Italien, att bundna tillstånd inom kvantmekanik kan organiseras i familjer som kallas Regge -banor, där varje familj har distinkta vinkelmoment. [14] Denna idé generaliserades till relativistisk kvantmekanik av Stanley Mandelstam, Vladimir Gribov och Marcel Froissart [fr] med en matematisk metod (Sommerfeld – Watson -representationen) som upptäcktes decennier tidigare av Arnold Sommerfeld och Kenneth Marshall Watson [de]: resultatet kallades Froissart – Gribov -formeln. [15]

1961 erkände Geoffrey Chew och Steven Frautschi att mesonerna hade Regge-banor med rak linje [16] (i deras schema ritas spin mot masskvadrat på en så kallad Chew – Frautschi-tomt), vilket innebar att spridningen av dessa partiklar skulle har mycket konstigt beteende - det bör falla exponentiellt snabbt i stora vinklar. Med denna insikt hoppades teoretiker att konstruera en teori om sammansatta partiklar på Regge -banor, vars spridningsamplituder hade den asymptotiska form som Regge -teorin kräver.

År 1967 var ett anmärkningsvärt steg framåt i bootstrap -tillvägagångssättet principen om DHS -dualitet som introducerades av Richard Dolen, David Horn och Christoph Schmid 1967, [17] i Caltech (den ursprungliga termen för det var "genomsnittlig dualitet" eller "ändlig" energisumregel (FESR) dualitet "). De tre forskarna märkte att Regge -polutbyte (vid hög energi) och resonans (vid låg energi) -beskrivningar erbjuder flera representationer/approximationer av en och samma fysiskt observerbara process. [18]

Den första modellen där hadroniska partiklar i huvudsak följer Regge-banorna var den dubbla resonansmodellen som konstruerades av Gabriele Veneziano 1968, [19] som noterade att Eulers betafunktion kunde användas för att beskriva 4-partikelspridningsamplituddata för sådana partiklar . Veneziano -spridningsamplituden (eller Veneziano -modellen) generaliserades snabbt till en N-partikelamplitud av Ziro Koba och Holger Bech Nielsen [20] (deras tillvägagångssätt kallades Koba – Nielsen formalism), och till vad som nu erkänns som slutna strängar av Miguel Virasoro [21] och Joel A. Shapiro [22] (deras metod kallades Shapiro – Virasoro -modellen).

År 1969 möjliggjorde Chan-Paton-reglerna (föreslagna av Jack E. Paton och Hong-Mo Chan) [23] att isospinfaktorer kan läggas till i Veneziano-modellen. [24]

1969–70 presenterade Yoichiro Nambu, [25] Holger Bech Nielsen, [26] och Leonard Susskind [27] [28] en fysisk tolkning av Veneziano-amplituden genom att representera kärnkraften som vibrerande, endimensionella strängar. Denna strängbaserade beskrivning av den starka kraften gjorde dock många förutsägelser som direkt motsäger experimentella fynd.

1971 försökte Pierre Ramond [29] och oberoende John H. Schwarz och André Neveu [30] att implementera fermioner i dubbelmodellen. Detta ledde till begreppet "snurrande strängar" och pekade vägen till en metod för att ta bort den problematiska takyonen (se RNS -formalism). [31]

Modeller med dubbel resonans för starka interaktioner var ett relativt populärt studieämne mellan 1968 och 1973. [32] Det vetenskapliga samfundet tappade intresset för strängteori som en teori om starka interaktioner 1973 när kvantkromodynamik blev huvudfokus för teoretisk forskning [33] (främst på grund av den teoretiska dragningen av dess asymptotiska frihet). [34]

År 1974 studerade John H. Schwarz och Joël Scherk, [35] och oberoende Tamiaki Yoneya, [36] de bosonliknande strängvibrationsmönstren och fann att deras egenskaper exakt stämde överens med gravitonets, gravitationskraftens hypotetiska budbärarpartikel. Schwarz och Scherk hävdade att strängteorin hade misslyckats med att fysiker hade underskattat dess omfattning. Detta ledde till utvecklingen av bosonisk strängteori.

Strängteori är formulerad i termer av Polyakov -handling, [37] som beskriver hur strängar rör sig genom rum och tid. Precis som fjädrar tenderar strängarna att dra ihop sig för att minimera sin potentiella energi, men bevarande av energi hindrar dem från att försvinna, och i stället svänger de. Genom att tillämpa kvantmekanikens idéer på strängar är det möjligt att härleda strängarnas olika vibrationssätt och att varje vibrationstillstånd verkar vara en annan partikel. Massan av varje partikel och det sätt på vilket den kan interagera bestäms av hur strängen vibrerar - i huvudsak av "noten" strängen "låter." Anteckningsskalan, som var och en motsvarar en annan typ av partikel, kallas teorins "spektrum".

Tidiga modeller inkluderade båda öppen strängar, som har två distinkta slutpunkter, och stängd strängar, där slutpunkterna är sammanfogade för att skapa en komplett slinga. De två typerna av strängar beter sig på lite olika sätt och ger två spektra. Inte alla moderna strängteorier använder båda typerna, vissa innehåller bara den slutna sorten.

Den tidigaste strängmodellen har flera problem: den har en kritisk dimension D = 26, en egenskap som ursprungligen upptäcktes av Claud Lovelace 1971 [38] teorin har en grundläggande instabilitet, närvaron av takyoner [39] (se takykondensation) Dessutom innehåller partikelspektrumet endast bosoner, partiklar som foton som följer särskilda beteenderegler. Medan bosoner är en kritisk ingrediens i universum, är de inte dess enda beståndsdelar. Att undersöka hur en strängteori kan inkludera fermioner i sitt spektrum ledde till uppfinningen av supersymmetri (i väst) [40] 1971, [41] en matematisk transformation mellan bosoner och fermioner. Strängteorier som inkluderar fermioniska vibrationer kallas nu supersträngsteorier.

År 1977 ledde GSO-projektionen (uppkallad efter Ferdinando Gliozzi, Joël Scherk och David I. Olive) till en familj av takyonfria enhetsfria strängteorier, [42] de första konsekventa supersträngsteorierna (se nedan).

De första supersträngrevolutionen är en period med viktiga upptäckter som började 1984. [43] Man insåg att strängteorin kunde beskriva alla elementära partiklar samt interaktionerna mellan dem. Hundratals fysiker började arbeta med strängteori som den mest lovande idén för att förena fysiska teorier. [44] Revolutionen startades med en upptäckt av anomali-upphävande i typ I strängteori via Green-Schwarz-mekanismen (uppkallad efter Michael Green och John H. Schwarz) 1984. [45] [46] Den banbrytande upptäckten av den heterotiska strängen gjordes av David Gross, Jeffrey Harvey, Emil Martinec och Ryan Rohm 1985. [47] Det insågs också av Philip Candelas, Gary Horowitz, Andrew Strominger och Edward Witten 1985 att få N = 1 < displaystyle N = 1> supersymmetri, de sex små extra dimensionerna ( D = 10 kritiska dimensioner av supersträngsteorin hade ursprungligen upptäckts av John H. Schwarz 1972) [48] måste komprimeras på ett Calabi – Yau -grenrör. [49] (I strängteori är komprimering en generalisering av Kaluza – Klein -teorin, som först föreslogs på 1920 -talet.) [50]

År 1985 hade fem separata supersträngsteorier beskrivits: typ I, [51] typ II (IIA och IIB), [51] och heterotiska (SO (32) och E8×E8) . [47]

Upptäck tidningen i november 1986 -numret (vol. 7, #11) innehöll en omslagshistoria skriven av Gary Taubes, "Everything's Now Tied to Strings", som förklarade strängteori för en populär publik.

1987 visade Eric Bergshoeff [de], Ergin Sezgin [de] och Paul Townsend att det inte finns några supersträngar i elva dimensioner (det största antalet dimensioner som överensstämmer med en enda graviton i supergravitationsteorier), [52] utan supermembraner. [53]

I början av 1990-talet fann Edward Witten och andra starka bevis på att de olika supersträngsteorierna var olika gränser för en 11-dimensionell teori [54] [55] som blev känd som M-teori [56] (för detaljer, se Introduktion till M -teori). Dessa upptäckter utlöste andra supersträngrevolutionen som ägde rum ungefär mellan 1994 och 1995. [57]

De olika versionerna av supersträngsteorin förenades, som man länge hoppats, av nya ekvivalenser. Dessa är kända som S-dualitet, T-dualitet, U-dualitet, spegelsymmetri och konifolda övergångar. De olika strängteorierna var också relaterade till M-teorin.

År 1995 upptäckte Joseph Polchinski att teorin kräver inkludering av högre dimensionella objekt, kallade D-branes: [58] dessa är källorna till elektriska och magnetiska Ramond – Ramond-fält som krävs av strängdualitet. [59] D-branes lade till ytterligare rik matematisk struktur till teorin och öppnade möjligheter för att konstruera realistiska kosmologiska modeller i teorin (för detaljer, se Brane-kosmologi).

1997–98 gissade Juan Maldacena ett samband mellan strängteori och N = 4 supersymmetrisk Yang – Mills -teori, en måttteori. [60] Denna gissning, kallad AdS/CFT -korrespondensen, har genererat ett stort intresse för högenergifysik. [61] Det är en insikt i den holografiska principen, som har långtgående konsekvenser: AdS/CFT-korrespondensen har hjälpt till att belysa mysterierna om svarta hål som föreslogs av Stephen Hawkings arbete [62] och tros ge en upplösning av den svarta hålinformation paradox. [63]

År 2003, Michael R. Douglas upptäckt av strängteorilandskapet, [64] som tyder på att strängteori har ett stort antal ojämlika falska vakua, [65] ledde till mycket diskussion om vad strängteori så småningom kan förväntas förutsäga, och hur kosmologi kan införlivas med teorin. [66]

En möjlig mekanism för strängteori vakuumstabilisering (KKLT -mekanismen) föreslogs 2003 av Shamit Kachru, Renata Kallosh, Andrei Linde och Sandip Trivedi. [67]


En historia om kvantmekanik

Neutronen upptäcktes inte förrän 1932 så det är mot denna bakgrund som vi spårar början på kvantteorin tillbaka till 1859.

År 1859 bevisade Gustav Kirchhoff ett teorem om svartkroppsstrålning. En svart kropp är ett föremål som absorberar all energi som faller på den, och eftersom den inte reflekterar något ljus skulle den se svart ut för en observatör. En svart kropp är också en perfekt sändare och Kirchhoff bevisade att den energi som avges E E E beror endast på temperaturen T T T och frekvensen v v v av den utsända energin, d.v.s.

Han utmanade fysiker att hitta funktionen J J J.

År 1879 föreslog Josef Stefan, på experimentella grunder, att den totala energin som avges från en het kropp var proportionell mot temperaturens fjärde effekt. I det allmänt uttalade av Stefan är detta falskt. Samma slutsats nåddes 1884 av Ludwig Boltzmann för svartkroppsstrålning, denna gång från teoretiska överväganden med termodynamik och Maxwells elektromagnetiska teori. Resultatet, nu känt som Stefan-Boltzmann-lagen, svarar inte helt på Kirchhoffs utmaning eftersom det inte besvarar frågan för specifika våglängder.

År 1896 föreslog Wilhelm Wien en lösning på Kirchhoff -utmaningen. Trots att hans lösning matchar experimentella observationer nära för små värden av våglängden, visade det sig bryta ner i fjärranfrarött av Rubens och Kurlbaum.

Kirchhoff, som hade varit på Heidelberg, flyttade till Berlin. Boltzmann erbjöds sin stol i Heidelberg men tackade nej. Stolen erbjöds sedan till Hertz som också tackade nej till erbjudandet, så den erbjöds igen, denna gång till Planck och han tackade ja.

Rubens besökte Planck i oktober 1900 och förklarade sina resultat för honom. Inom några timmar efter att Rubens lämnat Plancks hus hade Planck gissat rätt formel för Kirchhoffs J J J -funktion. Denna gissning passade mycket bra på experimentella bevis på alla våglängder men Planck var inte nöjd med detta och försökte ge en teoretisk härledning av formeln. För att göra detta gjorde han det oöverträffade steget att anta att den totala energin består av oskiljbara energielement - energikvant. Han skrev

Planck himself gave credit to Boltzmann for his statistical method but Planck's approach was fundamentally different. However theory had now deviated from experiment and was based on a hypothesis with no experimental basis. Planck won the 1918 Nobel Prize for Physics for this work.

In 1901 Ricci and Levi-Civita published Absolute differential calculus. It had been Christoffel's discovery of 'covariant differentiation' in 1869 which let Ricci extend the theory of tensor analysis to Riemannian space of n n n dimensions. The Ricci and Levi-Civita definitions were thought to give the most general formulation of a tensor. This work was not done with quantum theory in mind but, as so often happens, the mathematics necessary to embody a physical theory had appeared at precisely the right moment.

In 1905 Einstein examined the photoelectric effect. The photoelectric effect is the release of electrons from certain metals or semiconductors by the action of light. The electromagnetic theory of light gives results at odds with experimental evidence. Einstein proposed a quantum theory of light to solve the difficulty and then he realised that Planck's theory made implicit use of the light quantum hypothesis. By 1906 Einstein had correctly guessed that energy changes occur in a quantum material oscillator in changes in jumps which are multiples of ℏ v hslash v ℏ v where ℏ hslash ℏ is Planck's reduced constant and v v v is the frequency. Einstein received the 1921 Nobel Prize for Physics, in 1922 , for this work on the photoelectric effect.

In 1913 Niels Bohr wrote a revolutionary paper on the hydrogen atom. He discovered the major laws of the spectral lines. This work earned Bohr the 1922 Nobel Prize for Physics. Arthur Compton derived relativistic kinematics for the scattering of a photon ( a light quantum ) off an electron at rest in 1923 .

However there were concepts in the new quantum theory which gave major worries to many leading physicists. Einstein, in particular, worried about the element of 'chance' which had entered physics. In fact Rutherford had introduced spontaneous effect when discussing radio-active decay in 1900 . In 1924 Einstein wrote:-

Einstein had been puzzled by paradox ( ii ) and Pauli quickly told Bohr that he did not believe his theory. Further experimental work soon ended any resistance to belief in the electron. Other ways had to be found to resolve the paradoxes.

Up to this stage quantum theory was set up in Euclidean space and used Cartesian tensors of linear and angular momentum. However quantum theory was about to enter a new era.

The year 1924 saw the publication of another fundamental paper. It was written by Satyendra Nath Bose and rejected by a referee for publication. Bose then sent the manuscript to Einstein who immediately saw the importance of Bose's work and arranged for its publication. Bose proposed different states for the photon. He also proposed that there is no conservation of the number of photons. Instead of statistical independence of particles, Bose put particles into cells and talked about statistical independence of cells. Time has shown that Bose was right on all these points.

Work was going on at almost the same time as Bose's which was also of fundamental importance. The doctoral thesis of Louis de Broglie was presented which extended the particle-wave duality for light to all particles, in particular to electrons. Schrödinger in 1926 published a paper giving his equation for the hydrogen atom and heralded the birth of wave mechanics. Schrödinger introduced operators associated with each dynamical variable.

The year 1926 saw the complete solution of the derivation of Planck's law after 26 years. It was solved by Dirac. Also in 1926 Born abandoned the causality of traditional physics. Speaking of collisions Born wrote

Heisenberg's work used matrix methods made possible by the work of Cayley on matrices 50 years earlier. In fact 'rival' matrix mechanics deriving from Heisenberg's work and wave mechanics resulting from Schrödinger's work now entered the arena. These were not properly shown to be equivalent until the necessary mathematics was developed by Riesz about 25 years later.

Also in 1927 Bohr stated that space-time coordinates and causality are complementary. Pauli realised that spin, one of the states proposed by Bose, corresponded to a new kind of tensor, one not covered by the Ricci and Levi-Civita work of 1901 . However the mathematics of this had been anticipated by Eli Cartan who introduced a 'spinor' as part of a much more general investigation in 1913 .

Dirac, in 1928 , gave the first solution of the problem of expressing quantum theory in a form which was invariant under the Lorentz group of transformations of special relativity. He expressed d'Alembert's wave equation in terms of operator algebra.

The uncertainty principle was not accepted by everyone. Its most outspoken opponent was Einstein. He devised a challenge to Niels Bohr which he made at a conference which they both attended in 1930 . Einstein suggested a box filled with radiation with a clock fitted in one side. The clock is designed to open a shutter and allow one photon to escape. Weigh the box again some time later and the photon energy and its time of escape can both be measured with arbitrary accuracy. Of course this is not meant to be an actual experiment, only a 'thought experiment'.

Niels Bohr is reported to have spent an unhappy evening, and Einstein a happy one, after this challenge by Einstein to the uncertainty principle. However Niels Bohr had the final triumph, for the next day he had the solution. The mass is measured by hanging a compensation weight under the box. This is turn imparts a momentum to the box and there is an error in measuring the position. Time, according to relativity, is not absolute and the error in the position of the box translates into an error in measuring the time.

Although Einstein was never happy with the uncertainty principle, he was forced, rather grudgingly, to accept it after Bohr's explanation.

In 1932 von Neumann put quantum theory on a firm theoretical basis. Some of the earlier work had lacked mathematical rigour, but von Neumann put the whole theory into the setting of operator algebra.


5. The Transactional Interpretation

This entry so far has considered the two most significant motivating arguments in favor of adopting retrocausality as a hypothesis for dealing with the interpretational challenges of quantum theory. But these motivations do not by themselves amount to an interpretation or model of quantum theory. §6 consists of a survey of a range of retrocausal models, but this section first considers perhaps the most prominent retrocausal model, the transactional interpretation. Developed by Cramer in the 1980s (Cramer 1980, 1986, 1988), the transactional interpretation is heavily influenced by the framework of the Wheeler-Feynman absorber approach to electrodynamics (see §1) the Wheeler-Feynman schema can be adopted to describe the microscopic exchange of a single quantum of energy, momentum, etc., between and within quantum systems.

At the heart of the transactional interpretation is the &ldquotransaction&rdquo: real physical events are identified with so-called &ldquohandshakes&rdquo between forward-evolving quantum states (psi) and backward-evolving complex-conjugates (psi^*). When a quantum emitter (such as a vibrating electron or atom in an excited state) is to emit a single quantum (a photon, in these cases), the source produces a radiative field&mdashthe &ldquooffer&rdquo wave. Analogously to the Wheeler-Feynman description, this field propagates outwards both forward and backward in time (as well as across space). When this field encounters an absorber, a new field is generated&mdashthe &ldquoconfirmation&rdquo wave&mdashthat likewise propagates both forward and backward in time, and so is present as an advanced incident wave at the emitter at the instant of emission. Both the retarded field produced by the absorber and the advanced field produced by the emitter exactly cancel with the retarded field produced by the emitter and advanced field produced by the absorber for all times before the emission and after the absorption of the photon only between the emitter and the absorber is there a radiative field. Thus the transaction is completed with this &ldquohandshake&rdquo: a cycle of offer and confirmation waves

repeats until the response of the emitter and absorber is sufficient to satisfy all of the quantum boundary conditions&hellipat which point the transaction is completed. (Crammer 1986: 662)

Many confirmation waves from potential absorbers may converge on the emitter at the time of emission but the quantum boundary conditions can usually only permit a single transaction to form. Any observer who witnesses this process would perceive only the completed transaction, which would be interpreted as the passage of a particle (e.g., a photon) between emitter and absorber.

The transactional interpretation takes the wave function to be a real physical wave with spatial extent. The wave function of the quantum mechanical formalism is identical with the initial offer wave of the transaction mechanism and the collapsed wave function is identical with the completed transaction. Quantum particles are thus not to be thought of as represented by the wave function but rather by the completed transaction, of which the wave function is only the initial phase. As Cramer explains:

The transaction may involve a single emitter and absorber or multiple emitters and absorbers, but it is only complete when appropriate boundary conditions are satisfied at all loci of emission and absorption. Particles transferred have no separate identity independent from the satisfaction of these boundary conditions. (1986: 666)

The amplitude of the confirmation wave which is produced by the absorber is proportional to the local amplitude of the incident wave that stimulated it and this, in turn, is dependent on the attenuation it received as it propagated from the source. Thus, the total amplitude of the confirmation wave is just the absolute square of the initial offer wave (evaluated at the absorber), which yields the Born rule. Since the Born rule arises as a product of the transaction mechanism, there is no special significance attached to the role of the observer in the act of measurement. The &ldquocollapse of the wave function&rdquo is interpreted as the completion of the transaction.

The transactional interpretation explicitly interprets the quantum state (psi) as real, and so does not constitute an attempt to exploit the retrocausality loopholes to the theorems that rule out (psi)-epistemic accounts. Additionally, the transactional interpretation subverts the dilemma at the core of the EPR argument (Einstein, et al. 1935) by permitting incompatible observables to take on definite values simultaneously: the wavefunction, according to the transactional interpretation,

brings to each potential absorber the full range of possible outcomes, and all have &ldquosimultaneous reality&rdquo in the EPR sense. The absorber interacts so as to cause one of these outcomes to emerge in the transaction, so that the collapsed [wavefunction] manifests only one of these outcomes. (Crammer 1986: 668).

Most importantly, however, the transactional interpretation employs both retarded and advanced waves, and in doing so admits the possibility of providing a &ldquozigzag&rdquo explanation of the nonlocality associated with entangled quantum systems.

Before turning to one of the more significant objections to the transactional interpretation, and to retrocausality in general, it is instructive to tease apart here two complementary descriptions of this transaction process. On the one hand there is a description of the real physical process, consisting of the passage of a particle between emitter and absorber, that a temporally bound experimenter would observe and on the other hand there is a description of a dynamical process of offer and confirmation waves that is instrumental in establishing the transaction. This latter process simply cannot occur in an ordinary time sequence, not least because any temporally bound observer by construction cannot detect any offer or confirmation waves. Cramer suggests that the &ldquodynamical process&rdquo be understood as occurring in a &ldquopseudotime&rdquo sequence:

The account of an emitter-absorber transaction presented here employs the semantic device of describing a process extending across a lightlike or a timelike interval of space-time as if it occurred in a time sequence external to the process. The reader is reminded that this is only a pedagogical convention for the purposes of description. The process is atemporal and the only observables come from the superposition of all &ldquosteps&rdquo to form the final transaction. (Crammer 1986: 661, fn.14)

These steps are of course the cyclically repeated exchange of offer and confirmation waves which continue &ldquountil the net exchange of energy and other conserved quantities satisfies the quantum boundary conditions of the system&rdquo (1986: 662). There is a strong sense here that any process described as occurring in pseudotime is not a process at all but, as Cramer reminds, merely a &ldquopedagogical convention for the purposes of description&rdquo. Whether it is best to understand causality according to the transactional interpretation in terms of processes underscored by conserved quantities is closely tied to how one should best understand this pseudotemporal process.

Maudlin (2011) outlines a selection of problems that arise in Cramer&rsquos theory as a result of the pseudotemporal account of the transaction mechanism: processes important to the completion of a transaction take place in pseudotime only (rather than in real time) and thus cannot be said to have taken place at all. Since a temporally bound observer can only ever perceive a completed transaction, i.e., a collapsed wavefunction, the uncollapsed wavefunction never actually exists. Since the initial offer wave is identical to the wavefunction of the quantum formalism, any ensuing exchange of advanced and retarded waves required to provide the quantum mechanical probabilities, according to Maudlin, also do not exist. Moreover, Cramer&rsquos exposition of the transaction mechanism seems to suggest that the stimulation of sequential offer and confirmation waves occurs deterministically, leaving a gaping hole in any explanation the transactional interpretation might provide of the stochastic nature of quantum mechanics. Although these problems are significant, Maudlin admits that they may indeed be peculiar to Cramer&rsquos theory. Maudlin also sets out a more general objection to retrocausal models of quantum mechanics which he claims to pose a problem for &ldquoany theory in which both backwards and forwards influences conspire to shape events&rdquo (2011: 184).

Maudlin&rsquos main objection to the transactional interpretation hinges upon the fact that the transaction process depends crucially on the fixity of the absorbers &ldquojust sitting out there in the future, waiting to absorb&rdquo (2011: 182) one cannot presume that present events are unable to influence the future disposition of the absorbers. Maudlin offers a thought experiment to illustrate this objection. A radioactive source is constrained to emit a (eta)-particle either to the left or to the right. To the right sits absorber A at a distance of 1 unit. Absorber B is also located to the right but at a distance of 2 units and is built on pivots so that it can be swung around to the left on command. A (eta)-particle emitted at time (t_<0>) to the right will be absorbed by absorber A at time (t_<1>). If after time (t_<1>) the (eta)-particle is not detected at absorber A, absorber B is quickly swung around to the left to detect the (eta)-particle after time (2t_<1>).

According to the transactional interpretation, since there are two possible outcomes (detection at absorber A or detection at absorber B), there will be two confirmation waves sent back from the future, one for each absorber. Furthermore, since it is equally probable that the (eta)-particle be detected at either absorber, the amplitudes of these confirmation waves should be equal. However, a confirmation wave from absorber B can only be sent back to the emitter if absorber B is located on the left. For this to be the case, absorber A must not have detected the (eta)-particle and thus the outcome of the experiment must already have been decided. The incidence of a confirmation wave from absorber B at the emitter ser till that the (eta)-particle is to be sent to the left, even though the amplitude of this wave implies a probability of a half of this being the case. As Maudlin (2011: 184) states so succinctly, &ldquoCramer&rsquos theory collapses&rdquo.

The key challenge from Maudlin is that any retrocausal mechanism must ensure that the future behavior of the system transpires consistently with the spatiotemporal structure dictated by any potential future causes: &ldquostochastic outcomes at a particular point in time may influence the future, but that future itself is supposed to play a role in producing the outcomes&rdquo (2011: 181). In the transactional interpretation the existence of the confirmation wave itself presupposes some determined future state of the system with retrocausal influence. However, with standard (i.e., forward-in-time) stochastic causal influences affecting the future from the present, a determined future may not necessarily be guaranteed in every such case, as shown by Maudlin&rsquos experiment.

Maudlin&rsquos challenge to the transactional interpretation has been met with a range of responses (see P. Lewis 2013 and the entry on action at a distance in quantum mechanics for more discussion of possible responses). The responses generally fall into two types (P. Lewis 2013). The first type of response attempts to accommodate Maudlin&rsquos example within the transactional interpretation. Berkovitz (2002) defends the transactional interpretation by showing that causal loops of the type found in Maudlin&rsquos experiment need not obey the assumptions about probabilities that are common in linear causal situations. Marchildon (2006) proposes considering the absorption properties of the long distance boundary conditions: if the universe is a perfect absorber of all radiation then a confirmation wave from the left will always be received by the radioactive source at the time of emission and it will encode the correct probabilistic information. Kastner (2006) proposes differentiating between competing initial states of the radioactive source, corresponding to the two emission possibilities, that together characterize an unstable bifurcation point between distinct worlds, where the seemingly problematic probabilities reflect a probabilistic structure across both possible worlds.

The second type of response is to modify the transactional interpretation. For instance, Cramer (2016) introduces the idea of a hierarchy of advanced-wave echoes dependent upon the magnitude of the spatiotemporal interval from which they originate. Kastner (2013) surmises that the source of the problem that Maudlin has exposed, however, is the idea that quantum processes take place in the &ldquoblock world&rdquo, and rejects this conception of processes in her own development of the transactional interpretation. According to her &ldquopossibilist&rdquo transactional interpretation, all the potential transactions exist in a real space of possibilities, which amounts at once to a kind of modal realism and an indeterminacy regarding future states of the system (hence Kastner&rsquos rejection of the block universe view). The possibilist transactional interpretation arguably handles multi-particle scenarios more naturally, and presents the most modern sustained development of the transactional interpretation (although see P. Lewis 2013 for criticisms of the possibilist transactional interpretation specific to Maudlin&rsquos challenge).


6. The Continuous Spontaneous Localization Model (CSL)

The model just presented (QMSL) has a serious drawback: it does not allow to deal with systems containing identical constituents, because it does not respect the symmetry or antisymmetry requirements for such particles. A quite natural idea to overcome this difficulty is to relate the hitting process not to the individual particles but to the particle number density averaged over an appropriate volume. This can be done by introducing a new phenomenological parameter in the theory which however can be eliminated by an appropriate limiting procedure (see below).

Another way to overcome this problem derives from injecting the physically appropriate principles of the GRW model within the original approach of P. Pearle. This line of thought has led to what is known as the CSL (Continuous Spontaneous Localization) model (Pearle 1989 Ghirardi, Pearle, and Rimini 1990) in which the discontinuous jumps which characterize QMSL are replaced by a continuous stochastic evolution in the Hilbert space (a sort of Brownian motion of the statevector).

The basic working principles are CSL are similar to those of the GRW model, though the technical detail might different significantly. For a review see (Bassi and Ghirardi 2003 Adler 2007, Bassi, Lochan, et al. 2013). At this regard, it is interesting to note (Ghirardi, Pearle, & Rimini 1990) that for any CSL dynamics there is a hitting dynamics which, from a physical point of view, is &lsquoas close to it as one wants&rsquo. Instead of entering into the details of the CSL formalism, it is useful, for the discussion below, to analyze a simplified version of it.

With the aim of understanding the physical implications of the CSL model, such as the rate of suppression of coherence, we make now some simplifying assumptions. First, we assume that we are dealing with only one kind of particles (e.g., the nucleons), secondly, we disregard the standard Schrödinger term in the evolution and, finally, we divide the whole space in cells of volume (d^3). We denote by (ket) a Fock state in which there are (n_i) particles in cell (i), and we consider a superposition of two states (ket) and (ket) which differ in the occupation numbers of the various cells of the universe. With these assumptions it is quite easy to prove that the rate of suppression of the coherence between the two states (so that the final state is one of the two and not their superposition) is governed by the quantity:

all cells of the universe appearing in the sum within the square brackets in the exponent. Apart from differences relating to the identity of the constituents, the overall physics is quite similar to that implied by QMSL.

Equation 6 offers the opportunity of discussing the possibility of relating the suppression of coherence to gravitational effects. In fact, with reference to this equation we notice that the worst case scenario (from the point of view of the time necessary to suppress coherence) is that corresponding to the superposition of two states for which the occupation numbers of the individual cells differ only by one unit. In this case the amplifying effect of taking the square of the differences disappears. Let us then ask the question: how many nucleons (at worst) should occupy different cells, in order for the given superposition to be dynamically suppressed within the time which characterizes human perceptual processes? Since such a time is of the order of (10^<-2>) sec and (f = 10^<-16> ext< sec>^<-1>), the number of displaced nucleons must be of the order of (10^<18>), which corresponds, to a remarkable accuracy, to a Planck mass. This figure seems to point in the same direction as Penrose&rsquos attempts to relate reduction mechanisms to quantum gravitational effects (Penrose 1989).


Max Planck and the Birth of Quantum Mechanics

From left to right: Walther Nernst, Albert Einstein, Max Planck, Robert Andrews Millikan, and Max von Laue at a dinner given by von Laue on November 12, 1931, in Berlin.

In the early evening of Sunday, October 7, 1900—120 years ago—Max Planck found the functional form of the curve that we now know as the Planck distribution of black-body radiation. By my account, it was the birthdate of quantum mechanics.

A few hours earlier Hermann Rubens and his wife had visited the Plancks. This being a Sunday, they probably enjoyed coffee and cake together. Rubens was the experimental professor of physics at Humboldt University in Berlin where Planck was the theoretical one. Rubens and his collaborator, Ferdinand Kurlbaum, had recently managed to measure the power emitted by a black body as a function of temperature at the unusually long wavelength of 51 microns. They had used multiple reflections from rock salt to filter a narrow band of the spectrum. Working at 51 microns, they measured the low temperature limit and the highest temperatures within the experimental reach of their oven. The remarkable result was that at low frequencies, in the classical regime, the results did not fit the predictions of Wilhelm Wien. Rubens told Planck that for small frequencies the measured spectral density was linear with temperature.

Planck was intrigued. As soon as the gathering ended, he set to work. His interest in the data was profound. That evening he figured out the shape of the curve, with its peculiar denominator that in the limit of low frequency showed the appropriate experimental behavior—linear with temperature.

The anecdote, as referred by Abraham Pais in his book Subtle is the Lord, states that Planck mailed a postcard to Rubens with the function that very evening, so that Rubens would get it first thing in the morning (the post would have been delivered and set on his desk by the time he arrived at his office in the university). Rubens probably asked Planck that very same morning: Why is it this shape?

The presentation of new data, followed by Planck’s function, was on October 17. The function fit the data, both at the low temperature and high temperature limits. Planck had been interested on the black body spectrum for a long time. He understood thermodynamics and classical electrodynamics. But it was the high-quality data of Rubens that drove his mind to find a solution. It took him a few months, and on Dec. 14 he presented the derivation of his theory where, “on an act of desperation,” he introduced the quantum of energy: the beginning of quantum mechanics.


Quantum Theory

With the turn of the 20th century, the field of physics underwent two major transformations, roughly at the same time. The first was Einstein's General Theory of Relativity, which dealt with the universal realm of physics. The second was Quantum Theory, which proposed that energy exists as discrete packets—each called a "quantum." This new branch of physics enabled scientists to describe the interaction between energy and matter down through the subatomic realm.

Einstein saw Quantum Theory as a means to describe Nature on an atomic level, but he doubted that it upheld "a useful basis for the whole of physics." He thought that describing reality required firm predictions followed by direct observations. But individual quantum interactions cannot be observed directly, leaving quantum physicists no choice but to predict the probability that events will occur. Challenging Einstein, physicist Niels Bohr championed Quantum Theory. He argued that the mere act of indirectly observing the atomic realm changes the outcome of quantum interactions. According to Bohr, quantum predictions based on probability accurately describe reality.

Niels Bohr and Max Planck, two of the founding fathers of Quantum Theory, each received a Nobel Prize in Physics for their work on quanta. Einstein is considered the third founder of Quantum Theory because he described light as quanta in his theory of the Photoelectric Effect, for which he won the 1921 Nobel Prize.

May 15, 1935: The Physical Review publishes the Einstein, Podolsky, and Rosen (EPR) paper claiming to refute Quantum Theory.

Newspapers were quick to share Einstein's skepticism of the "new physics" with the general public. Einstein's paper, "Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?" prompted Niels Bohr to write a rebuttal. Modern experiments have upheld Quantum Theory despite Einstein's objections. However, the EPR paper introduced topics that form the foundation for much of today's physics research.

Einstein and Niels Bohr began disputing Quantum Theory at the prestigious 1927 Solvay Conference, attended by top physicists of the day. By most accounts of this public debate, Bohr was the victor.



Kommentarer:

  1. Hagop

    Det finns något i detta. Nu blev allt tydligt för mig, tack för informationen.

  2. Jamal

    Ja verkligen. Så det händer. Vi kommer att undersöka denna fråga.

  3. Ovadya

    Självklart. Det händer. Låt oss diskutera den här frågan. Här eller på PM.

  4. Damis

    Det är behagligt, denna utmärkta tanke måste vara exakt med avsikt



Skriv ett meddelande