Der blev nævnt en del matematik i denne udsendelse. To fanger var stukket af, efter en fangetransport var involveret i et færdelsuheld. (De ringede overraskende nok ikke efter Tommy Lee Jones, som ellers altid er så god til at finde bortløbne fanger 🙂 )
I en analyse af selve uheldet omtalte Charlie og Larry Markov processer og Chapman-Kolmogorov’s sætning.
Der var en scene, hvor Charlie holdt forelæsning “Matematik for ikke-matematikere”. Om Monty Hall problemet.
Og i en analyse af, hvor den ene af de bortløbne fanger var blevet set (den anden havde de fanget), brugte Charlie efter sigende Bayesiansk analyse af clusters.
Først om Markovprocesser. Et system (i udsendelsen var det en fangetransport, en pickup truck og en anden lastbil) studeres til forskellige tidspunkter t1, t2, t3, … og man kan observere dets tilstande (Fangetransporten kører i inderbanen eller yderbanen, bremser eller bremser ikke, accelererer eller ikke, etc. og det samme med de andre køretøjer.) I en Markovproces afhænger systemets tilstand i næste tidspunkt kun af, hvad den er nu, og ikke af, hvad den var for lidt siden. Man har overgangssandsynligheder:
Eksempel: Hvis fangebussen er i inderbanen nu, er sandsynligheden 0,8 for, at den er i stadig er i inderbanen til næste tidspunkt (og altså 0,2 for, at den er i yderbanen). Hvis den er i yderbanen, er sandsynligheden 0,4 for, at den stadig er i yderbanen til næste tidspunkt, og 0,6 for at den er i inderbanen.HOP OVER HER, hvis du ikke er bekendt med matricer. Man skriver en matrix
første række 0,8 0,2
anden række 0,6 0,4
Anvendelse af Chapman-Komogorovs sætning siger her, at overgangssandsynlighederne fra et tidspunkt til to step længere fremme, findes ved matrixmultiplikation (man kvadrerer matricen ovenfor), så man får
første række 0,76 0,24
anden række 0,72 0,28
Ganger man matricen med sig selv 8 gange, får man
første række 0,75 0,25
anden række 0,75 0,25
(afrundet), og det ændrer sig ikke hvis man ganger sammen 9 gange (bortset fra på det, jeg har afrundet væk). Det indikerer, at man på langt sigt vil ligge i inderbanen 3/4 af tiden.
Der er lidt at overveje her: Hvordan kan man vide, at man stadig har overgangssandsynligheder, når man ganger matricen med sig selv (i.e., at summen af elementerne i rækkerne stadig er 1)? Hvad nu, hvis man ganger to forskellige matricer sammen, der begge har rækkesum 1?
I et større system vil man have mange flere variable og tilstande – f.eks. vil fangebussens placering vel afhænge af de andre køretøjers placering og hastighed m.v.
Desuden vil man mere generelt have kontinuert tid;
Systemet er så Markov, hvis P(fremtid|nutid og fortid)=P(fremtid|nutid). (Og så er Chapman-Kolmogorov mere imponerende) Læs mere ved f.eks. at google overgangssandsynligheder og Markov.
HOP PÅ IGEN HER:
Senere er der en analyse af fangens færden i Los Angeles. Der er en hel masse data om, hvor han er set og hvornår, og Charlie analyserer dem ved at samle dem, som kan optræde sammen: Hvis en observation er, at fangen er set klokken 9 i den ene ende af byen, og en anden, at han er set klokken 9.02 i den anden ende af byen, er de enten unøjagtige, eller den ene er forkert. Charlie analyserer, hvilket mønster af observationer, der er det mest sandsynlige. Det er en cluster analyse: Man ser, hvilke data, der kan optræde sammen i en klump (en cluster) og genererer større og større grupper af data, hvor hver gruppering har en vis sandsynlighed. Man kan læse om den slags på Wikipedia, hvis ellers engelskkundskaberne slår til. Se under f.eks. cluster analysis.
Og så var der Monty Hall – den med gederne og bilen. I et TV-program kan man vinde en bil eller en ged. Der er tre døre, og bag de to står der en ged, mens der er en bil bag den sidste. Deltageren vælger en dør. TV-værten (det er ham, der hedder Monty Hall) åbner ikke den dør, men en anden, hvor der står en ged; og han tilbyder deltageren at vælge om og tage den anden af de to døre, der ikke er åbnet. Det overraskende er, at det faktisk gør en forskel, om man skifter eller ej. Man skal skifte! Charlie forklarer, at sandsynligheden for, at der står en ged bag den dør, man valgte først, jo stadig er 2/3 (der var to med geder og en med en bil), og altså 1/3 for, at der er en bil, skal man skifte til den sidste dør – der er der med 2/3 sandsynlighed en bil. Det er helt imod intuitionen (også min), men det skyldes altså, at man kan snyde intuitionen. Det, vores intuition har det svært med, er, hvordan man kan bruge den ekstra information, der ligger i at få udpeget en dør med en ged bagved.
Der er tre muligheder for placering af bil og geder:
(Ged, Ged, Bil), (Ged, Bil, Ged) og (Bil, Ged, Ged).
Har jeg valgt den første dør, vil det i de to første tilfælde være bedst at skifte, når TV-værten har vist mig en dør med en ged. Kun i det sidste tilfælde er det dumt at skifte.
En anden måde at sige det på er: Når man skal vælge, er der 1/3 sandsynlighed for en bil bag hver af de tre døre. Ved at åbne døren med geden koncentrerer værten de 2x 1/3 sandsynlighed, der var for en bil bag de to sidste døre til den dør, vi ikke har valgt.
Man kan spille Monty Hall på nettet eller man kan få en kammerat til at lægge to stykker vingummi og et stykke lakrids under tre kopper og selv lave eksperimentet (jeg kan bedst lide lakrids). Man skal ikke lave det mange gange, før man ser, at strategien med at skifte hver gang er langt den bedste.
I øvrigt blev problemet berømt/berygtet i USA, da Marilyn Vos Savant nævnte det i sin klumme i en avis. Hun er nævnt i Guinness Rekordbog som den, der har verdens højeste IQ. Hendes forsøg på at gøre sig klog på Fermats sidste sætning var nu ikke heldigt – noget gedigent vrøvl faktisk- så det er altså ikke nok at have en høj IQ; men det vidste vi vel også godt.
Mvh
Lisbeth www.math.aau.dk/~fajstrup
Mail til numb3rs@math.aau.dk
Pingback: Harvest/Høst 2-14 at numb3rs