
Pascal
Mitglieder-
Gesamte Inhalte
173 -
Benutzer seit
-
Letzter Besuch
Inhaltstyp
Profile
Forum
Kalender
Articles
Alle erstellten Inhalte von Pascal
-
Hallo Hades, es ist relativ unaufwändig, einen Langzeittest zu programmieren. Im Prinzip hat Paroli das ja schon getan. Vielleicht ist er ja bereit, noch ein paar Monate mehr durch seinen Computer tickern zu lassen? Und dann müsste seine Tabelle noch ausgewertet werden, was aber sehr einfach ist. Um deutlich über die Hallerschen 100 Angriffe zu kommen, sollten etwa drei Jahre ausgewertet werden. Das würde etwa einen Faktor 10 liefern, also 1000 Angriffe statt nur 100. Dadurch würde die relative Schwankungsbreite um den Faktor sqrt(10) = 3,2 reduziert. 75 % Trefferquote, wie von Haller beobachtet, wären dann in jedem Fall ausgeschlossen (wenn man von einem Ergebnis entsprechend der Wahrscheinlichkeitsrechnung ausgeht). Wenn sich niemand "erbarmt", kann ich das mal programmieren. Ich bastele aber im Moment noch an einem Posting zur EC-Trefferquote. Das will ich erst fertigstellen. Und dann habe ich noch das Problem, dass ich bisher nur über die Jahrespermanenz Hamburg 1999, Tisch 1, verfüge (abgesehen von Permanenzen der Spielbanken Niedersachsen, die aber bisher nur als "Lose-Blatt-Sammlung", d.h. als HTML-Seiten für die Tagespermanenzen, vorliegen). Das ist für einen Langzeittest zu wenig. Wenn Du mir da weiterhelfen könntest, kann ich einen Test innerhalb kürzester Zeit raushauen. Ansonsten müsste ich mir erst die Permanenzen organisieren bzw. zusammenbasteln. Und das dauert... Gruß, Pascal
-
Leider kein eindeutiges Ergebnis. Es ist zwar richtig, dass im Mittel p = 1-(36/37)**36 = 62,7 % der Angriffe treffen, aber die Schwankungsbreite ist bei nur 100 Angriffen doch noch recht hoch. Die Standardabweichung beträgt in diesem Fall s = sqrt(100*p*(1-p)) = 4,84. Werden jetzt 75 Treffer auf 100 Angriffe anstelle der erwarteten 62,7 Treffer beobachtet, so beträgt die Abweichung vom Erwartungswert (75-62,7)/s = 2,54 Standardabweichungen. Das ist zwar nicht unerheblich, liegt aber noch deutlich innerhalb der 3-Sigma-Schranken. Sie begrenzen in diesem Fall das Intervall zwischen 48,2 und 77,2 Treffern auf 100 Angriffe. Etwas unpräzise ausgedrückt bedeutet das: bei nur 100 Angriffen ist alles zwischen 48,2 und 77,2 Treffern aus statistischer Sicht normal. Solange man mir nichts Gegenteiliges beweist, bin ich auch der festen Überzeugung, dass sich die Trefferhäufigkeit im vorliegenden Fall bei 62,7 % einpendelt, wenn man die Teststrecke auf ein vernünftiges Maß ausdehnt. Gruß Pascal, der sich überlegt, wie er in Zukunft das Wort "Standardabweichung" in seinen Postings vermeiden kann.
-
Mist, in der Eile natürlich verrechnet. Abweichung = 13,98 Standardabweichungen, fast 14 sigma. Also ich glaub's nicht! So, das war's aber jetzt endgültig von mir.
-
Hallo Orphelin, In Verbindung mit einer statistischen Bewertung, ja (Stichwort: 3-Sigma-Schranke). Ich habe mir die obigen Zahlen mal eben kurz angeschaut. 52.684.150 Satzsignale, im Anschluss Serienlänge 1: beobachtet: 26.291.356 erwartet: 1/2*52.684.150 = 26.342.075 Differenz: 50.719 3-fache Standardabweichung: 3*sqrt(52.684.150*1/2*(1-1/2)) = 10.887,58 im Anschluss Serienlänge 2: beobachtet: 13.162.077 erwartet: 1/4*52.684.150 = 13.171.037,5 Differenz: 8.960,5 3-fache Standardabweichung: 3*sqrt(52.684.150*1/4*(1-1/4)) = 9.428,92 im Anschluss Serienlänge >2: beobachtet: 13.230.717 erwartet: 1/4*52.684.150 = 13.171.037,5 Differenz: -59.679,5 3-fache Standardabweichung: 3*sqrt(52.684.150*1/4*(1-1/4)) = 9.428,92 Zero ist gänzlich unberücksichtigt, richtig? D. h. die Wahrscheinlichkeit für eine Serienfortsetzung ist exakt 1/2, richtig? Falls nicht, müsste man die Zahlen entsprechend anpassen. Ich möchte Dich bitten, Dein Programm noch einmal genau zu überprüfen. Wenn ich mich jetzt auf die Schnelle nicht verrechnet habe (bitte überprüfen, bin sehr in Eile), beträgt die Abweichung der Erscheinungshäufigkeit vom Erwartungswert bei den Intermittenzen 4,66 Standardabweichungen. Nicht ausgeschlossen, aber sehr bemerkenswert! (Höre ich da jetzt einige Leute jubeln? Hallo, hinschauen! Die Abweichung erfolgt nach UNTEN!) Eine ebenfalls sehr große Abweichung liegt bei den Serien mit Länge größer zwei vor. Wenn Du keinen Fehler findest, mache Dich bitte schlau, welchen Zufallszahlengenerator Dein Programm verwendet. Wahrscheinlich einen vom Typ "linear congruential". Damit kannst Du böse Überraschungen erleben. Es wäre sehr gut, die Ergebnisse noch einmal mit einem besseren Generator zu reproduzieren. Bessere Generatoren findest Du z. B. in den "Numerical Recipes" von Press, Vetterling, Teukolsky und Flannery, Cambridge University Press. Aus diesem Buch stammt auch das folgende Zitat: Ebenfalls einen Blick wert ist Band 2 von Knuth's "The Art of Computer Programming" mit dem Titel: Seminumerical Algorithms. Im Moment kann ich leider keine weitere Hilfe anbieten. Muss jetzt los und bin für eine Woche weg. Gruß, Pascal P.S: Du hast in einem anderen Thread einen Standard für Permanenzen vorgeschlagen. Ich halte es für sinnvoll, dass wir uns auch auf einen Standard-Zufallszahlengenerator (und eine Standard-Startzahl für diesen) einigen, damit Ergebnisse von verschiedenen Leuten vergleichbar werden. Anders als viele andere halte ich Auswertungen auf der Basis computergenerierter Zufallszahlen nämlich für sinnvoll (Koken macht das ja auch). Dass im Zweifel Auswertungen auf der Basis realer Permanenzen besser sind, darin sind wir uns ja wohl ohnehin alle einig. P.S.2: Man könnte natürlich einen guten Zufallszahlengenerator nehmen, damit eine riesige Permanenz erzeugen, und die hier im Forum verfügbar machen - als Referenz quasi.
-
Hallo Marina, Nein, aber es ist offenkundig, dass Dir die Sachargumente ausgehen. Pascal
-
Neue Permanenzen
topic antwortete auf Pascal's Orphelin in: Roulette für Einsteiger / Programmierung / System-Auswertungen / Excel
Hallo Orphelin, sehr gute Idee! Ich wäre an den neuen Permanenzen interessiert. Hoffentlich macht Paroli sie allen zugänglich. Dann hätten wir nämlich einen verbindlichen Standard, auf den wir uns bei Tests beziehen könnten. Mit dem Format, das Du vorschlägst, kann ich gut leben. Ich schreibe meine Auswerteprogramme meistens in AWK. Das kommt damit gut klar. Viele im Forum benutzen Excel. Damit kenne ich mich nun überhaupt nicht aus, aber ich könnte mir vorstellen, dass ein noch "tabellenorientierteres" Format für diese Leute einfacher wäre. Ggf. verliert man dann jedoch an Übersichtlichkeit. Vielleicht kann man in diesem Fall zwei Versionen anbieten: eine Version, so wie Du sie vorschlägst, und eine Version, die auf Excel abgestimmt ist, mit einer einheitlichen Form für jede Zeile, z. B. Datum.....Coup-Nr. (Jahr).....Coup-Nr. (Tag).....Anz. bisheriger Handwechsel (Tag).....Permanenzzahl Die zweite Version könnte man aus der ersten Version automatisch erzeugen lassen. Dann ist man sicher, dass keine Diskrepanzen vorliegen. Aber vielleicht haben die Excel-Leute mit Deinem ersten Format ja überhaupt keine Probleme - kenne mich da nicht aus, wie gesagt. Wenn der neue Standard etabliert ist, kann ich wohl auch ein paar Permanenzen beisteuern. Hatte mir vor einiger Zeit ein ZIP-Archiv von den Spielbanken Niedersachsen gezogen mit Permanenzen aus Bad Zwischenahn, Hannover etc. Die müsste ich dann aber erst aufbereiten - im Moment liegt jeder Tag als HTML-Datei vor. Gruß, Pascal -
Hallo Marina, nun gut, dass ich mir irgendwann anhören müsste, ich wäre zu blöd, um Dein System zu kapieren, damit habe ich gerechnet. Ist ja schon vielen im Thread hier so ergangen, die sich mit Deinem System auseinandergesetzt haben. Schwamm drüber. Aber sonst: Wie bitte? Das ist nicht ernst gemeint, oder? Ich darf mal zitieren (eines Deiner ersten Postings zum Millionenspiel mit den Originalregeln): Wenn Du das tust, dann landest Du im Schnitt in 255 von 256 Fällen einen Treffer - statistisch gesehen und ohne Berücksichtigung der Zero. (Ja, ja, da ist noch Deine ominöse Zeroregelung, die sich "gewinnverstärkend" auswirkt. Ich habe in einem früheren Posting versucht Dir zu erklären, dass Du damit lediglich die Varianz des Gewinns erhöhst. Klartext: Du machst Dein Spiel risikoreicher). Trotzdem landest Du, wiederum statistisch gesehen, aufgrund der Platzer a la longue bei plus minus Null. Einen Vorteil hast Du nur, wenn Du im Schnitt nicht in 255 von 256 Fällen gewinnst, sondern, sagen wir, in 255,5 von 256 Fällen. Und das ist genau dann der Fall, wenn die Erscheinungshäufigkeit von Intermittenzen und Zweierserien nach Deinem Satzsignal gegenüber dem Erwartungswert erhöht ist. Glaubst Du nicht, weiß ich. Ist aber so. Ich glaube, genau das kannst Du nicht beurteilen. Hört sich gut an, Dein Schlusswort. So Akte X - mäßig. Damit liegst Du voll im Trend, würde ich sagen. Aber über das Millionenspiel sagt das nun wirklich NICHTS aus, womit man im praktischen Spiel etwas anfangen könnte. Überhaupt ist das alles so herrlich unkonkret, was Du sagst. Bloß nicht festlegen! Ich habe vor kurzem vorgeschlagen, man sollte das Millionenspiel unvoreingenommen und ergebnisoffen testen. Ich habe gleichzeitig erläutert, warum ich die bisherigen Tests für nicht besonders aussagekräftig halte. Antwort: "Ja, sollte man machen". Später habe ich einen Test vorgeschlagen, der eine relativ schnelle Entscheidung über die Grundannahme des Millionenspiels ermöglicht. Antwort (s.o.): "Um Himmels Willen! So darf man das aber nicht machen! Wir wollen lieber noch einige Monate lang Permanenzen auswerten." Wie auch immer. Du wirst die nächste Woche vor mir Ruhe haben, da ich verreist bin. Wenn ich zurückkomme, werden bestimmt schon wieder hitzige Debatten um Progressionen geführt werden, und um die 25 Varianten Deines Millionenspiels, die es dann geben wird. Sei 's drum. Hallo Ludo, leider haben wir beide das Millionenspiel nicht begriffen. Aber dazu muss man halt auch "um drei Ecken denken" können. Ich würde mich freuen, wenn Du hier in der nächsten Woche das Fähnlein der Aufrechten hochhalten könntest. Würde mich dann in etwa einer Woche bei Dir melden wg. eines Tests der Grundannahme des Millionenspiels, nämlich dass nach zweimaliger Steigerung der Serienlänge Intermittenzen und Zweierserien häufiger auftreten als statistisch zu erwarten. Das sollte sich recht schnell überprüfen lassen. Und mit dem Ergebnis wäre der Dauergewinnanspruch für mich entschieden - positiv oder negativ. Gruß, Pascal
-
@Marina, ein Forum lebt vom Meinungsaustauch. Ich möchte daher einmal eine Gegenmeinung zu Deinem Posting formulieren: Was kein Qualitätsmerkmal ist, man denke z. B. an die Bild-Zeitung. Einen klaren Trend zu Gewinn und Dauererfolg kann ich nicht erkennen. Habe ich was übersehen? Und theoretische Spielergebnisse, die einen solchen Trend signalisieren, habe ich auch noch nicht gesehen - was sind theoretische Spielergebnisse überhaupt? Was bisher vorliegt, ist die Auswertung einer Jahrespermanenz auf allen drei einfachen Chancen. Die liefert einen hauchdünnen Vorteil gegenüber Null - meiner Meinung nach ein Zufallsprodukt, aber das lässt sich überprüfen ... Wieso 10 Varianten? Nach zweimaliger Steigerung der Serienlänge treten Intermittenzen und Zweierserien häufiger auf als statistisch zu erwarten - das ist doch die Grundannahme. Wenn das stimmt, landet jede Variante, die darauf aufbaut, in der Dauergewinnzone. Ob das stimmt, ist völlig ungewiss. Der natürliche Weg ist doch, zuerst sicherzustellen, dass es stimmt und dann eine Optimierung des Systems herbeizuführen. Wieso 10 Varianten? Und über den Dauergewinnbeweis wird dann abgestimmt? Möchtest Du hier der Möglichkeit vorbauen, dass Leute wie ich oder z. B. Kelly sagen: "Das ist nichts."?. Ich kann Dir versichern, dass ich dem Ergebnis eines seriösen Tests nicht widersprechen werde. Aber was ein seriöser Test ist, findet man nicht durch Abstimmung heraus. Ich wäre nicht beeindruckt: 1. satzarmes Spiel --> wenige Angriffe 2. hohe statistische Gewinnwahrscheinlichkeit pro Angriff --> hohe Variabilität des Saldoverlaufs. Es dürfte für Leute wie RCEC nicht schwierig sein, ein System zu konstruieren, das über 3-4 Jahre Hamburg bei der gleichen Satzarmut wie Dein System im Plus landet. Man kann doch nicht vorher die Länge der Teststrecke festlegen ohne diese auf das jeweilige System abzustimmen. Bin ich auch für. Welche Ergebnisse? Nochmal Klartext: es geht mir hier nicht ums Meckern, wie jetzt vielleicht einige meinen. Ich ärgere mich aber, wenn Behauptungen in den Raum gestellt werden, die solange wiederholt werden, bis irgendwann von Ergebnissen geredet wird. Sind wir hier auf einer Verkaufsveranstaltung, oder was? Der richtige Weg, die Gewinnsicherheit eines Systems nachzuweisen, ist es zu testen. Erste, spärliche Testergebnisse liegen vor. Die müssen nun ausgewertet werden - und zwar mit dem nötigen Sachverstand. (Dabei wird sich mit sehr hoher Wahrscheinlichkeit herausstellen, das die Tests ausgeweitet werden müssen.) Es bringt doch nichts, mich über eine computersimulierte Gewinnwahrscheinlichkeit pro Angriff von 95 % zu freuen wo ich nur 93,75 % erwartet hätte, wenn ich bei diesen 95 % gleichzeitig von einem Fehler von 5 % ausgehen muss (Entschuldige bitte, roulettespieler, dass ich das jetzt schon wieder anbringe.). Mein Fazit aus den tausenden von Postings in diesem Thread: Es liegen bisher keine aufsehenerregenden Ergebnisse über das Millionenspiel vor. Es wurde kein klarer Trend zu Gewinn und Dauererfolg beobachtet. Der falsche Weg, die Gewinnsicherheit eines Systems nachzuweisen, ist gebetsmühlenartig zu wiederholen, wie toll es doch ist - bis keine kritische Stimme mehr zu hören ist. Aber vielleicht ist das der politische Weg. Gruß, Pascal
-
Genau darum geht es! Steht bisher lediglich als Behauptung im Raum!
-
Hallo roulettespieler, hallo Ludo, anhand der Tabellen, die roulettespieler allen verfügbar gemacht hat (s. Posting von Paroli am 23.09., 19:46 h, S. 22 dieses Threads), könnte man mal den folgenden Test durchführen: 1.) Gesamtzahl der Angriffe. Zähle die Angriffe auf rot / schwarz (z. B.). Nenne diese Anzahl "#Angriffe". 2.) Gewonnene Angriffe. Zähle die Anzahl der Angriffe, bei denen unmittelbar nach dem Satzsignal entweder eine Intermittenz oder Zweierserie erscheint. Nenne diese Anzahl "#ErfolgreicheAngriffe". #ErfolgreicheAngriffe ist also die Zahl der gewonnenen Angriffe, wenn wir nach zweimaliger Steigerung der Serienlänge nur einmal auf eine Intermittenz oder Zweierserie spielen. 3.) Was wird erwartet? Jetzt geht es darum, #ErfolgreicheAngriffe mit dem Wert zu vergleichen, den man im Mittel erwartet. Das sind, da in in roulettespielers Tabelle zum Glück die Zero unberücksichtigt bleibt, drei Viertel aller Angriffe. Diese Zahl nennen wir z. B. #Mittelwert. Wir haben also #Mittelwert = 3/4 * #Angriffe. 4.) Statistik. In der Regel werden sich #ErfolgreicheAngriffe und #Mittelwert unterscheiden. Es geht jetzt darum zu beurteilen, ob dieser Unterschied etwas Besonderes darstellt oder nicht. Hierzu berechnen wir die Standardabweichung als Maß für die Streuung der beobachteten Anzahl erfolgreicher Angriffe um den erwarteten Mittelwert. Das Kochrezept lautet Standardabweichung = Wurzel aus (Gesamtzahl_Angriffe * Gewinnwahrscheinlichkeit_pro_Angriff * (1-Gewinnwahrscheinlichkeit_pro_Angriff)) Hier also: #Standardabweichung = sqrt(#Angriffe * 3/4 * (1 - 3/4)) wobei ich das Doppelkreuz "#" wieder zur Kennzeichnung als Variable verwendet habe. Laut Statistik erwartet man in knapp 98 % aller Fälle, dass die beobachtete Anzahl erfolgreicher Angriffe sich um weniger als drei Standardabweichungen vom Mittelwert unterscheidet. D. h. mit an Sicherheit grenzender Wahrscheinlichkeit sollte #ErfolgreicheAngriffe größer sein als #Mittelwert - 3 * #Standardabweichung aber kleiner als #Mittelwert + 3 * #Standardabweichung. Zu testen ist also: #Mittelwert - 3 * #Standardabweichung < #ErfolgreicheAngriffe < #Mittelwert + 3 * #Standardabweichung ? 1. Fall: ja, dem ist so: In diesem Fall steht die beobachtete Gewinnhäufigkeit jedenfalls nicht im Widerspruch zu dem, was man statistisch erwarten würde => kein Anzeichen für eine Überlegenheit des Systems. 2. Fall: nein, #ErfolgreicheAngriffe ist größer als #Mittelwert + 3 * #Standardabweichung: In diesem Fall bitte tief Luft holen, das Auswerteprogramm nochmal genau überprüfen, und sich das Ergebnis am besten von einem unabhängigen Dritten reproduzieren lassen (wäre doch peinlich, sich zu irren). Bestätigt sich das Ergebnis, liegt ein deutlicher Hinweis auf eine Ballung von Intermittenzen und Zweierserien unmittelbar nach zweimaliger Steigerung der Länge vorangegangener Serien vor. 5.) Scheiß Mathematik. Ich sehe doch, dass das Millionenspiel funktioniert! Mal angenommen, der obige Test liefert eine Anzahl #ErfolgreicheAngriffe, die größer ist als der erwartete #Mittelwert. Die statistische Analyse lt. Punkt 4.) sagt aber: "Das ist normal, denk Dir nichts dabei!" In diesem Fall haben wir die folgende Situation: ggf. ist eine Überlegenheit des Millionenspiels vorhanden, aber die Stichprobenmenge reicht nicht aus, um diese Überlegenheit auch nachzuweisen (#Angriffe ist zu klein, die Teststrecke zu kurz). Dann kann man die Anzahl der Angriffe bestimmen, die notwendig wären, um die Überlegenheit DOCH nachzuweisen. Ich skizziere das nur mal kurz, Posting ist eh schon zu lang: a) Die beobachtete prozentuale Gewinnwahrscheinlichkeit ist p = #ErfolgreicheAngriffe / #Angriffe. In unserem Test fällt das größer als der erwartete Wert 3/4 aus, und wir sind davon überzeugt, dass das kein Zufall ist. _b) Berechne N = 3/4 * (1 - 3/4) * [3 / (p - 3/4)]^2. c) Wenn sich die überhöhte Gewinnwahrscheinlichkeit p auch nach N Angriffen bestätigt - Herzlichen Glückwunsch! (Das ist aber nicht so einfach. Nur mal als Zahlenbeispiel: angenommen wir hätten eine einprozentige Überlegenheit des Systems, d. h. p = 0,76 anstelle von 0,75. Dann erhält man N = 16875.) Variation Nach den Ergebnissen von roulettespieler werden in ca. 95 % aller Fälle die ersten zwei Stufen eines Angriffs gewonnen. Um die Signifikanz dieses Ergebnisses zu testen kann man den eben geschilderten Test wie folgt abändern: 1.) passe #ErfolgreicheAngriffe entsprechend an (ist nun die Anzahl der Angriffe, die in zwei Stufen erfolgreich verlaufen), 2.) ersetze überall 3/4 durch 15/16. Wenn drei Stufen berücksichtigt werden sollen: 1.) #ErfolgreicheAngriffe neu bestimmen, 2.) 3/4 durch 63/64 ersetzen. Wenn vier Stufen berücksichtigt werden sollen: 1.) #ErfolgreicheAngriffe neu bestimmen, 2.) 3/4 durch 255/256 ersetzen. Die Auswertung muss auf der Grundlage von roulettespielers Tabellen vorgenommen werden. Benutzt man eigene Permanenzstrecken, so ist aus diesen zunächst die Zero zu entfernen. Habe im Moment leider keine Zeit, den Test selbst zu programmieren, stehe aber für Rückfragen zur Verfügung. Noch eine Bemerkung: Roulettespieler und Ludo, Ihr gehört zu den erfahrenen Mitgliedern hier im Forum. Ich könnte mir vorstellen, dass meine Kommentare kalter Kaffee für Euch sind. Ich hoffe, dass Ihr Euch an der ausführlichen, elementar gehaltenen Darstellung des Tests nicht stört. Ich habe das gemacht, damit ALLE eine Chance haben, zu verstehen, wie der Test durchzuführen ist. Vielleicht finden sich ja einige Interessierte, die das Ganze mal in Ihren Rechner einhacken. Gruß, Pascal
-
Hallo Kelly, die Argumentation ist ein bißchen anders. Erwartet (mathematisch) werden 93,75 % Gewinnwahrscheinlichkeit. Beobachtet werden 95 % Gewinnwahrscheinlichkeit. Wenn diese Diskrepanz echt ist, d. h. sich in Langzeittests bestätigt, würde das für ein Dauergewinnsystem reichen. Die 93,75 % bzw. 95 % haben an sich nichts zu sagen. Die gleiche Argumentation würde z. B. auch gelten, wenn man für eine bestimmte Pleinzahl eine Gewinnwahrscheinlichkeit von 3,5 % finden würde anstelle der zu erwartenden 2,7 %. Wichtig sind dann nicht die 3,5 % sondern die Differenz zu 2,7 %. Gruß nach Dänemark, Pascal
-
Hallo Marina, nur, dass die 95 % eben überhaupt noch nicht belegt sind, sondern nur für einen bestimmten Permanenzzeitraum beobachtet wurden. Hieraus auf einen längeren Permanenzzeitraum schließen zu wollen, ist sehr riskant, da sind wir uns wohl hoffentlich einig. (So nach dem Motto: "Ich habe jetzt in 10 Würfen dreimal eine Sechs geworfen. Also werde ich in 100 Würfen dreißigmal eine Sechs werfen.") Jedenfalls freue ich mich, dass nun von einer kleinen prozentualen Überlegenheit des Millionenspiels gegenüber Null die Rede ist. Das dürfte übermäßige Erwartungen etwas dämpfen und damit zur Versachlichung beitragen. Mein Eindruck ist auch, dass die Überlegenheit klein ausfallen wird, wenn es sie denn überhaupt gibt. Ob es sie gibt, muss nun geklärt werden - Ergebnis offen, wie gesagt. Übrigens: wie schwierig es ist, kleine prozentuale Unterschiede nachzuweisen, hat man ja am letzten Sonntag gesehen. Selbst die Profis von Infratest Dimap hatten da ihre Schwierigkeiten. Schönen Abend noch, Pascal
-
@Marina, ich empfehle Dir sehr, Dich mal mit dem Begriff der Varianz auseinanderzusetzen. Und wie sicher, glaubst Du, sind diese 95 %? Wie groß ist die statistische Unsicherheit? Welchen Fehler muss man aufgrund der Größe der Stichprobenmenge annehmen? Ein Prozent? Zwei Prozent? Fünf Prozent? Was, wenn die tatsächliche - in Langzeittests zu ermittelnde - Gewinnwahrscheinlichkeit vom beobachteten Wert 95 % nur um 1,5 % nach unten abweicht? Dann sieht die Rechnung ganz anders aus: durchschnittl. Gewinn pro 100 Angriffe = 93,5 x 1 St. = 93,5 St. durchschnittl. Verlust pro 100 Angriffe = 6,5 x 15 St. = 97,5 St. Das ergibt einen durchschnittlichen Verlust pro 100 Angriffen von 4 St. Du aber klammerst Dich an die 95 % von roulettespieler. Und anschließend an das o. a. Zitat baust Du in Deinem Posting ein riesiges Kartenhaus auf. Von 1400 Prozent Jahresverzinsung ist da u. a. die Rede - EINTAUSENDVIERHUNDERT!, sogar ausgeschrieben. Wow, Wahnsinn! Wo war doch gleich der Urlaubskatalog mit den Kreuzfahrten? Aber die Grundlage Deiner Phantasien, nämlich die 95 % Gewinnwahrscheinlichkeit, hinterfragst Du nicht ein einziges Mal kritisch. Das ist unseriös. Dein Kartenhaus steht und fällt mit diesen 95 %. Und es fällt bereits bei einer kleinen Korrektur des ermittelten Wertes, der - ich betone es noch einmal - mit einer statistischen Unsicherheit behaftet ist. Ich werfe zwanzigmal eine Münze. Ergebnis (authentisch, gerade eben ermittelt): 11 x Adler, 9 x Zahl Klarer Fall, dass hier eine höhere Gewinnwahrscheinlichkeit für Adler vorliegt! Wenn ich jemanden finden könnte, der bereit wäre, auf Zahl zu wetten ... mit entsprechender Kapitalisierung wäre ich im Nu Millionär! Dein Millionenspiel beruht auf einem eher seltenen Satzsignal: zweimalige Steigerung der Serienlänge. Danach wird auf die zwei am häufigsten auftretenden Figuren gesetzt: Intermittenz und Zweierserie. Und das, je nach Variante, bis zu viermal. Es ist zunächst halt überhaupt nichts Spektakuläres daran, dass dann die allermeisten Angriffe auch gewonnen werden - schließlich sind die seltenen Platzer teuer genug. Die Frage ist: werden mehr Angriffe gewonnen als statistisch zu erwarten sind? (Und statistisch zu erwarten sind eben eine ganze Menge!) Ich will Dir nicht absprechen, dass Du eine intuitive Vorstellung von statistischen Schwankungen hast. Aber wie sicher ist Deine Intuition? Eine Münze wird 100 Mal geworfen. Ergebnis: 42 x Adler, 58 x Zahl. Normal? Ein Würfel wird 600 Mal geworfen. Ergebnis: 120 x Sechs, 480 x eine andere Zahl. Wurde der Würfel manipuliert? Von 1000 Angriffen a la roulettespieler werden 950 gewonnen (95 %), 50 verloren. Dauergewinnbeweis? Wir können uns natürlich alle unsere finanzielle Zukunft auf der Dauergewinnhypothese (nichts anderes ist es im Moment) des Millionenspiels in den rosigsten Farben ausmalen - Dein Posting gibt da ja ein schönes Beispiel (sollten sich die Werbetexter für Aktienfonds-Prospekte mal ein Beispiel dran nehmen). Aber für besonders clever halte ich das nicht. Ich finde es bezeichnend, dass jetzt schon wieder über Progressionen nachgedacht wird, bevor die Grundannahme des Millionenspiels auf Herz und Nieren getestet wurde, nämlich: "Nach einer zweimaligen Erhöhung der Serienlängen treten Intermittenzen und Zweierserien öfter auf, als dies statistisch zu erwarten wäre." Diese Annahme lässt sich testen - unabhängig von irgendeiner Progression. Und noch etwas, um einen etwaigen Einwand von Dir vorwegzunehmen. Du schreibst Schon OK. Soweit ich das aus der Ferne überblicke, reichen den Blackjack-Leuten 0,x % Vorteil gegenüber der Bank. Aber bitte begreife, oder glaube es einfach, dass es ein durchaus nichttriviales Unterfangen ist, einen derartig kleinen Vorteil auch wasserdicht zu belegen. Die Blackjack-Leute führen dazu aufwändige Computersimulationen durch. Da können wir beim Roulette nicht erwarten, eine Handvoll Jahrespermanenzen zu testen, einen Gewinnvorteil von etwa 1,25 % (95 % gegenüber 93,75 %) zu ermitteln und damit locker und lässig das Roulette-Problem gelöst zu haben. Cool, was kommt als Nächstes? Kernfusion? Ist bestimmt auch ganz einfach. Oder ein Perpetuum Mobile bauen? Ach ne, hat Evert ja schon. Und noch ein letzter Punkt: ich habe roulettespieler nicht kritisiert. Ich habe mich lediglich einer deutlichen Sprache befleißigt. Wenn das als Kritik rübergekommen ist, entschuldige ich mich in aller Förmlichkeit! Ich denke aber, Einwände müssen klar formuliert werden, sonst gehen sie im Hype um Dein Millionenspiel unter. Das soll's gewesen sein. Gruß, Pascal
-
@Marina, Nein, aber ich mache mir Gedanken darüber. Es ist leider eine Sache, eine, zwei oder zehn Jahrespermanenzen durch den Rechner zu jagen und am Ende mit einem Ergebnis dazustehen, aber eine ganz andere Sache, zu entscheiden, was dieses Ergebnis einem sagen will. Ich bin kein Experte in Sachen Statistik. Darum kann ich Dir im Moment keine abschließende Antwort geben. Eine Möglichkeit, die Signifikanz der Daten zu beurteilen, wäre über die Platzerhäufigkeit möglich. Gehen wir von Deinem originären System mit einer achtstufigen Martingale aus, so gilt bei Vernachlässigung der Zero und damit auch ohne Deine Zeroregelung (sage ich noch was zu): p(Platzer) = p(Martingale floppt) = 1/2 hoch 8 = 1/256 Bei, sagen wir, 4096 Angriffen erwarte ich daher im Mittel 4096/256 = 16 Platzer. Im Mittel. Im realen Leben werde ich vielleicht nur 10 Platzer erleben. Glück? Oder Beweis der Überlegenheit Deines Systems? Kann die Statistik nicht entscheiden - ist so, leider! Was die Statistik sagen kann ist: mit hoher Wahrscheinlichkeit (etwa 98 %) beobachtet man bei 4096 Angriffen zwischen 4 und 28 Platzer. Der allgemeine Zusammenhang ist: Bei N Angriffen sind es zwischen p*N-3*s und p*N+3*s Platzer. Dabei ist p die Platzerwahrscheinlichkeit pro Angriff (1/256 im obigen Beispiel), und das Produkt p*N sollte wenigstens, sagen wir, 10 betragen. s, die Standardabweichung, ist s = Wurzel aus (N*p*(1-p)). Wenn sich jetzt herausstellt, dass die mittels Computeranalyse ermittelte Platzerhäufigkeit innerhalb der 3-Sigma-Schranken liegt, was dann? Taugt das System dann nicht? Kann man so nicht sagen. Aber jedenfalls kann das ermittelte Verhältnis von gewonnenen zu verlorenen Angriffen dann auch rein zufällig entstanden sein - auch wenn die Computersimulation mit einem erklecklichen Plussaldo endet. (Gilt für das Gegenteil natürlich genauso: ein Verlustjahr falsifiziert den Dauergewinnanspruch des Millionenspiels nicht). Falls die Ergebnisse allerdings außerhalb der 3-Sigma-Schranken liegen, sind wir auf einem guten Weg. Der eben beschriebene Test beantwortet (mit einer geringen Irrtumswahrscheinlichkeit) die Frage: können die (ggf. phänomenal guten) Ergebnisse der Computeranalyse zufällig entstanden sein? Aber eigentlich ist genau das Gegenteil von Interesse: können wir sicher sein (d.h. in der Statistik: Irrtumswahrscheinlichkeit soundsoviel Prozent), dass die Computerdaten nicht zufällig entstanden sind, sondern vielmehr Ausdruck der Überlegenheit Deines System? Das ist meines Erachtens der Punkt, den es zu entscheiden gilt. Wenn diese Frage positiv entschieden ist, dann kann man alle fleißigen Leser dieses Threads (von denen 80% beim Wort "Standardabweichung" aufgehört haben, dieses Posting zu lesen) mit ihrem sauer verdienten Geld in den Tempel schicken, um auf kurz oder lang Millionär zu werden. Ich biete mich an, bei der Entscheidung der zweiten Frage (taugt das System etwas oder nicht) mitzuhelfen. Aber zuerst muss meines Erachtes die erste Frage beantwortet werden, nämlich: "Stellen wir uns mal vor, das Roulette wäre vollständig zufallsbestimmt (im Sinne der Mathematik). Welche Ergebnisse können wir mit Marinas Millionenspiel erwarten, wenn wir drei Dutzend Jahrespermanenzen durch unseren Computer jagen?" Erst wenn wir diese Frage ohne Schönfärberei beantwortet haben, haben wir ein Gefühl dafür, was die Ergebnisse wert sind, ob sie etwas Besonderes darstellen etc. Sonst posten wir im Überschwang Statements wie roulettespieler, den seine 95 % Gewinnwahrscheinlichkeit bei den ersten zwei Stufen eines Angriffs augenscheinlich völlig aus den Socken gehauen haben. Zum Thema Zero und Deiner besonderen Zeroregelung: die Zero an sich ist für die Analyse an sich kein Problem. Mit Deiner Zeroregelung hingegen schon. Warum? Im Normalfall endet ein Angriff Sekt oder Selters - bei der 8-stufigen Martingale also mit +1 Stück oder -255 Stücken. Bei Deiner Regelung gibt es aber für jeden Angriff mehrere mögliche Ausgänge - neben +1 und -255 z. B. auch +3. Das erhöht die Varianz des Gewinns - die Wahrscheinlichkeitsverteilung des Gewinns nach soundsoviel Angriffen ist breiter mit Deiner Zeroregelung als mit den gewöhnlichen Strategien (Teilung des Einsatzes / Warten auf Entsperrung). Ob das ein Vorteil ist, vermag ich im Moment nicht zu sagen. Zwar bietet Deine Regelung die Chance, ab und zu einen höheren Gewinn einzufahren, aber dafür habe ich früher mein Pulver verschossen, wenn es mal nicht nach Plan läuft. Aus analytischer Sicht ist eklig, dass es jetzt nicht nur zwei Möglichkeiten für den Ausgang eines Angriffs gibt. Das führt von einer Binomial- auf eine Multinomialverteilung - und damit an dieser Stelle eindeutig zu weit! Ich möchte noch was Allgemeines loswerden. In diesem Thread kochen bisweilen die Emotionen ziemlich hoch. Es ist deutlich zu erkennen, dass häufig Meinungen ventiliert werden, die nicht objektiv begründbar sind. Das trifft auf die Befürworter und die Gegner Deines Systems zu. Während solche öffentlichen Glaubensbekenntnisse für die seelische Hygiene des einen oder anderen gut sein mögen - in der Sache bringen sie uns keinen Schritt voran. Was zählt, sind allein die Fakten. Durch die Arbeit von roulettespieler, Orphelin und anderen sind wir, was die Fakten angeht, jetzt auf einem guten Weg. Es geht nun darum, diese Fakten auszuwerten - emotionslos, und ohne Erkenntnisinteresse. Ich bin der festen Überzeugung, dass wir spätestens an diesem Punkt ohne ein bißchen Mathematik, oder besser Statistik, nicht mehr weiterkommen. Ich bin Physiker - seit kurzem promoviert. Ich denke, dass ich zur statistischen Bewertung der Daten einen Beitrag leisten kann (falls das für die Anderen von Interesse ist). Ich bin kein Mathematiker. Der würde Dir in Null Komma Nix vorrechnen, dass Dein System nicht funktionieren kann - wahrscheinlich würde ihm dafür eine DIN A5 Seite ausreichen. Aber für mich zählt das Experiment. Die Daten liegen nun vor (und sollten sicherlich noch erweitert werden). Es geht nun um deren Bewertung. Das Ergebnis muss dabei aber offen sein, sonst lügen wir uns alle in die Tasche - Befürworter und Gegner gleichermaßen, weil sich jede Seite die Ergebnisse heraussucht, die ihr gerade in den Kram passen. In diesem Sinne drücke ich Dir weder die Daumen dafür, dass Dein System funktioniert, noch rede ich jemandem das Wort, dass es nicht funktioniert. Wenn etwas dran ist, können wir das im Forum belegen. Wenn nicht, ebenso. Gruß, Pascal
-
@roulettespieler zwei Anmerkungen, nicht böse gemeint! Na und? Intermittenzen treten nun mal in etwa doppelt so häufig auf wie Zweierserien, Zweierserien in etwa doppelt so häufig wie Dreierserien usw. Die Wahrscheinlichkeit, nach einer 2er-Serie rot mindestens eine 3er-Serie schwarz zu beobachten, ist selbstverständlich größer als nach einer 3er-Serie rot mindestens eine 4er-Serie schwarz, denn natürlich gilt p(3er-Serie oder 4er-Serie oder 5er-Serie oder ...) > p(4er-Serie oder 5er-Serie oder 6er-Serie oder ...), Der erste Fall beinhaltet ja schließlich den zweiten. Nach mehreren aufeinanderfolgenden Steigerungen der Serienlänge wird es daher immer unwahrscheinlicher, dass der Trend sich fortsetzt. Na und? Das ergibt sich eben auch schon, wenn man voraussetzt (wie es die Mathematiker tun), dass rot und schwarz jeweils mit der Wahrscheinlichkeit 1/2 fallen (18/37 für die ganz peniblen). Anders gesagt: hierbei handelt es sich um ein eigentlich banales Phänomen, was sich sofort mit der Serienstatistik verstehen lässt. Ohne genauere Analyse lässt sich darauf kein Dauergewinnsystem aufbauen. (Die Analyse müsste einen signifikanten Unterschied der beobachteten Serienverteilung von der statistisch zu erwartenden erbringen - davon sehe ich in den bisherigen Beiträgen leider nichts.) Na und? Glaubt man den Mathematikern (bin keiner!), so wird ein Angriff auf eine Intermittenz oder Zweierserie mit einer Wahrscheinlichkeit von etwa 3/4 gewonnen (1/2 + (1-1/2)*1/2, Zero bleibt mal außen vor). Bei zwei Angriffen beträgt die Gewinnwahrscheinlichkeit schon 3/4 + (1-3/4)*3/4 = 15/16 = 93,75 % - ziemlich genau die 95 %, die Du angibst. Damit ich nicht der destruktiven Kritik bezichtigt werde: ich finde die Computeranalysen von Marinas Millionenspiel wichtig und gut. Aber wir müssen uns auch Gedanken über eine sinnvolle Interpretation der Ergebnisse machen. Wenn das ohne Polemik möglich ist, bin ich dabei. Gruß, Pascal
-
@Orphelin, 99 = Handwechsel, hat mich erst auch ziemlich irritiert. Happy hacking, Pascal
-
Hallo Bank, in der Kürze liegt die Würze! Interessantes Statement von Dir. Mir fiel dazu das Theorem von Dubins und Savage ein, demzufolge die höchste Wahrscheinlichkeit für einen avisierten Kapitalgewinn durch "bold play" erreicht wird, d.h. indem man "so zügig wie möglich" spielt. Beispiele (Spiel auf EC): 1. Aus 10 Stücken sollen 11 gemacht werden (Ziel: kleiner Gewinn). Die höchste Gewinnwahrscheinlichkeit wird mit dem folgenden Spiel erreicht: Kapital = 10 --> Satz = 1 Kapital = 9 --> Satz = 2 Kapital = 8 --> Satz = 3 Kapital = 7 --> Satz = 4 Kapital = 6 --> Satz = 5 Kapital = 5 --> Satz = 5 Kapital = 4 --> Satz = 4 Kapital = 3 --> Satz = 3 Kapital = 2 --> Satz = 2 Kapital = 1 --> Satz = 1 Das ist bei den ersten drei Sätzen die Martingale 1-2-4. Danach wird das verbleibende Kapital von 3 Stücken komplett riskiert, um wieder auf 6 Stücke zu kommen. Im Gewinnfall werden davon 5 gesetzt usw. 2. Aus zehn Stücken sollen hundert gemacht werden (Ziel: großer Gewinn). Spielvorschrift. Kapital = 10 --> Satz = 10 Kapital = 20 --> Satz = 20 Kapital = 40 --> Satz = 40 Kapital = 60 --> Satz = 40 Kapital = 80 --> Satz = 20 Das ist zu Anfang ein Parolispiel. Interpretiert man das 1. Beispiel als Verlustprogression (Analogie: Martingale) und das 2. Beispiel als Gewinnprogression (Analogie: Parolispiel), dann wird die Art der Progression tatsächlich durch das Gewinnziel vorgeschrieben: Verlustprogression für einen kleinen Gewinn. Gewinnprogression für einen großen Gewinn. Die Interpretation hinkt natürlich etwas. Ich finde es aber interessant, dass man quasi durch die Gewinnvorgabe zwischen beiden Progressionsarten hin- und herwechseln kann. Gruß Pascal
-
Hallo Hasadeur, interessant, die Frage habe ich mir vor kurzem auch gestellt. Ich halte es für konsequenter, die Null nicht als Bestandteil einer Serie zuzulassen. Dein Beispiel S S S S S S 0 S S S S ist für mich eine Abfolge von drei Ereignissen: 6er-Serie S, Null, 4er-Serie S. Für mein Votum kann ich Dir die folgenden Gründe anbieten. Sie hängen alle irgendwie zusammen. 1. Wenn Serien Nullen enthalten dürfen, dann ist eine Null an einem Serienende problematisch. Was ist das: S S 0 S S 0 R R R ? Eine 6er-Serie S (S S 0 S S 0) gefolgt von einer 3er-Serie R (R R R)? Oder eine 5er-Serie S (S S 0 S S) gefolgt von einer 4er-Serie R (0 R R R)? Oder eine 5er-Serie S (S S 0 S S) gefolgt von einer 0, gefolgt von einer 3er-Serie R (R R R)? Letzteres würde bedeuten, man wertet die Nullen in einer Permanenz unterschiedlich, je nachdem ob vor und nach der Null die gleiche oder unterschiedliche Farben auftreten. Eher unschön ... 2. Verbietet man die Null als Bestandteil einer Serie, so bestehen Serien von R und S (oder einer anderen EC) aus Ereignissen, die sich gegenseitig ausschließen: R und S eben. Anderenfalls würden R-Serien aus "R oder 0" und S-Serien aus "S oder 0" bestehen. Die Ereignisse "R oder 0" und "S oder 0" schließen sich aber nicht gegenseitig aus. Stattdessen können sie gleichzeitig auftreten - eben dann, wenn die Null fällt. 3. Betrachtet man die Null als eigenständiges Ereignis, so ergibt sich eine intuitiv einleuchtende Verteilung der Serienlängen in einer Permanenz. Was ich meine ist folgendes: nimm Dir eine Jahrespermanenz und zähle, wie vielen Nullen auftreten. Nenne diese Anzahl N0. Zähle anschließend, wie viele Intermittenzen auftreten. Nenne diese Anzahl N1. Verfahre ebenso mit den 2er-Serien (Anzahl N2), den 3er-Serien (Anzahl N3) usw... Bestimme dann die Gesamtzahl aller Nullen, Intermittenzen, 2er-Serien, 3er-Serien usw., d. h. die Zahl N = N0 + N1 + N2 + N3 + ... Damit kannst Du die relativen Häufigkeiten N0/N, N1/N, N2/N usw. von Nullen, Intermittenzen, 2er-Serien usw. ermitteln. Du wirst feststellen, dass N1/N etwa 18/37 ist. N2/N ist etwa 18/37*18/37, N3/N etwa 18/37*18/37*18/37 usw. Die relativen Häufigkeiten entsprechen damit den Wahrscheinlichkeiten p(einmal rot), p(zweimal rot), p(dreimal rot) usw. Ein einleuchtendes Ergebnis, wie ich finde. (Die Null fällt leider etwas aus der Reihe. N0/N ist etwa 1/19.) Ich habe die beschriebene Auswertung vor kurzem für die Jahrespermanenz Hamburg, 1999, Tisch 1, vorgenommen. Ggf. stelle ich sie in Zusammenhang mit Marinas (falschem) "Gummibandbeispiel" (s. Thread "Spiel auf ungerade Serien / Kombination mit d'Alembert, Posting vom 15.07.), das mich irgendwie ärgert, mal ins Forum. Obwohl es eigentlich ein alter Hut ist. Aber weiter im Text: würde man die Null als Bestandteil von Serien zulassen, so bin ich mir sicher, dass die resultierende Verteilung von Serienlängen komplizierter wird. Bevor man eine solche Verteilung ermitteln könnte, müsste man sich sowieso erstmal darüber einigen, wie Nullen am Serienende zu werten sind (s. Punkt 1). Reicht das fürs Erste? Lieben Gruß Pascal
-
Hallo nngfan, die Statistik für Hamburg, 1999, sieht so aus: 2 110536 97.2369 % 3 104546 91.9684 % 4 96006 84.4566 % 5 85539 75.2494 % 6 73851 64.9679 % 7 61786 54.3546 % 8 50049 44.0297 % 9 39175 34.4638 % 10 29572 26.0159 % 11 21585 18.9895 % 12 15141 13.3205 % 13 10199 8.9728 % 14 6600 5.8065 % 15 4083 3.5922 % 16 2411 2.1212 % 17 1370 1.2053 % 18 749 0.6590 % 19 385 0.3387 % 20 186 0.1636 % 21 78 0.0686 % 22 28 0.0246 % 23 9 0.0079 % 24 2 0.0018 % 25 0 0.0000 % 26 0 0.0000 % 27 0 0.0000 % 28 0 0.0000 % 29 0 0.0000 % 30 0 0.0000 % 31 0 0.0000 % 32 0 0.0000 % 33 0 0.0000 % 34 0 0.0000 % 35 0 0.0000 % 36 0 0.0000 % 37 0 0.0000 % 1. Spalte: Länge der Sequenz 2. Spalte: absolute Erscheinungshäufigkeit 3. Spalte: relative Erscheinungshäufigkeit Dabei treten Überschneidungen auf, d.h. 2 13 27 31 33 28 sind 5 Sequenzen der Länge 2, 4 Sequenzen der Länge 3 usw... Gewertet wurden nur die Sequenzen, in denen keine Wiederholungen auftraten, gemäß Deiner Vorgabe. Wie nicht anders zu erwarten, passen die relativen Erscheinungshäufigkeiten in der 3. Spalte sehr gut auf die Wahrscheinlichkeit p(N) = 36/37 * 35/37 * 34/37 * ... * (37-N+1)/37 eine Sequenz von N paarweise verschiedenen Plein-Zahlen zu beobachten. Vielleicht könnte Paroli ja wieder eine Grafik zaubern? Als LINUXer habe ich, was Excel angeht, nämlich schlechte Karten. Gruß, Pascal
-
Hallo an alle, in diesem Posting geht es um das gleichzeitige Bespielen von zwei einfachen Chancen, noir und pair. Was ich im Folgenden schreibe, habe ich bei der Beschäftigung mit der 2. Stufe der Progression von RCECs Ärmelschonerspiel ausgetüftelt, darum steht das Posting hier. Das Thema wurde kurzzeitig auch im Thread "Das System ist in Dir" gestreift. Erinnerung: Die Gewinnwahrscheinlichkeit auf einer einfachen Chance ist p = 24318/49321 = 49,31 %, wenn bei Erscheinen der Zero auf die Entsperrung des Einsatzes in Anschlusscoups und anschließenden Gewinn gewartet wird. Nun werden die einfachen Chancen noir und pair mit jeweils dem gleichen Einsatz S bespielt. Wartet man auch hier im Zerofall auf Entsperrung und anschließenden Gewinn, so ergeben sich die Wahrscheinlichkeiten p = 18115470/66534029 = 27,28 % für einen Gewinn 2S und p = 29379024/66534029 = 44,16 % für einen unveränderten Saldostand. Da der zweite Fall aus Sicht von Bank und Spieler unbefriedigend ist, werde angenommen, dass bei unverändertem Saldostand das Spiel so lange wiederholt wird, bis ein Gewinn von 2S erzielt worden ist oder der Einsatz verloren wurde. Dann ergibt sich als Gewinnwahrscheinlichkeit p = 3623094/7431001 = 48,76 % Das ist geringfügig kleiner, als wenn nur eine einfache Chance bespielt wird, siehe oben. Die Ursache ist vermutlich, dass die gleichzeitige Entsperrung von zwei einfachen Chancen weniger wahrscheinlich ist als die Entsperrung von nur einer einfachen Chance. Anders ausgedrückt: gehen die Einsätze S auf noir und pair en prison, so ist es wahrscheinlich, dass wenigstens einer davon in Anschlusscoups verloren geht. Trotzdem ein Ergebnis, das mich im ersten Moment überrascht hat. Der Unterschied ist wirklich nicht besonders groß. Es bleibt also jedem überlassen, wie er zu "Verlustabflachern" steht. Jedenfalls sind hier - für einen Spezialfall - mal die harten Zahlen. Über Kommentare würde ich mich freuen. Gruß Pascal
-
Spiel auf ungerade Serien/ Kombination mit d´Alemb
topic antwortete auf Pascal's porcellino in: Roulette-Systeme
Hallo Marina, mir geht's wie anton - eine Probepartie würde mir auch helfen. Gruß Pascal -
Hallo G. B., das mit der Arithmetik modulo 37 bringt nichts. Die ursprüngliche Wahrscheinlichkeitsverteilung p(A) ist eine flach abfallende Funktion von A. Identifiziert man nun alle Abstände, die um 37 oder ein Vielfaches davon auseinanderliegen, so gilt das auch für die neue Verteilung. Wenn ich davon ausgehe, dass p(A) = 1/37*(36/37)**A für die ursprüngliche Verteilung gilt - das passt gut auf die Daten, aber genau überprüft habe ich das nicht -, dann gilt für die neue Verteilung p'(A) p'(A) = Summe{1/36 * (36/37)**(A+37n)} = 1/36 * (36/37)**A * Summe{ [(36/37)**37]**n} = 1/36 * (36/37)**A * 1/(1-q) mit A = 0, 1, ..., 36 und n = 0, 1, 2, ... in der Summe und q = (36/37)**37 = 0,362851. Damit p'(A) = 1/[36*(1-q)] * (36/37)**A = 0,043597 * exp(-0,027399*A) Mit anderen Worten: p'(A) sieht genauso aus wie p(A), nur mit anderem Vorfaktor. Der springende Punkt ist, glaube ich, der: Zwar treten in einer Permanenz unterschiedliche Zeroabstände mit unterschiedlichen Wahrscheinlichkeiten auf (siehe oben). Aber: markiert man in dieser Permanenz alle Sequenzen der Zahlen 1 bis 36, die eine feste Länge A haben und auf beiden Seiten von zero abgeschlossen werden, und greift man sich ferner einen beliebigen Bezugspunkt heraus, z. B. Coup Nr. 12345, so sind alle Abstände (modulo 37) der markierten Sequenzen zum Bezugspunkt gleichwahrscheinlich. Beispiel: man markiere alle Sequenzen der Form zyyyz mit y = 1, ... 36. Dann bestimme man die Abstände modulo 37 aller Sequenzen zur ersten zero in der Permanenz. Beispiel: z<------------- 486 coups ------------->zyyyz => 486 mod 37 = 5. Ist die Permanenz aus statistischer Sicht hinreichend lang, so treten die so ermittelten Abstände mit gleicher relativer Häufigkeit auf. Noch anders ausgesdrückt: Es ist zwar richtig, dass der Zeroabstand 9 häufiger auftritt als der Zeroabstand 21. Dieses Wissen nützt Dir aber nichts, weil Du nicht weißt, wann die nächste 9er-Sequenz beginnt. Der Gedanke mit der Arithmetik modulo 37 stützt sich auf die Hoffnung, dass es eine Regelmäßigkeit im Auftreten derartiger Sequenzen gibt. Diese Hoffnung ist aber meines Erachtens nicht gerechtfertigt. Hoffe, ich habe Dich nicht zu sehr gelangweilt. Gruß, Pascal
-
Hi Paroli, ja, genau! Wenn man die x-Achse etwas staucht, sieht man sehr schön den exponentiellen Abfall der Häufigkeit H mit dem Abstand A. Die Wahrscheinlichkeit des Abstands A ist wohl p(A) = 1/37*(36/37)**A=0,027027*exp(-0,027399*A). Das liefert jedenfalls eine schöne Ausgleichskurve durch die Punkte der relativen Häufigkeiten. Wenn ich erst den Verstand eingeschaltet hätte, wäre mein Posting wohl etwas kürzer ausgefallen Gruß, Pascal P.S.: Wie bekomme ich das nächste Mal meine Grafik selbst ins Posting und welche Formate werden unterstützt? Dank Dir!
-
Hi! Zeroabstände, mit einem hastig zusammengekloppten AWK-Programm berechnet. Hamburg, 1999, Tisch 1: ----------------------- 121058 Zahlen, davon 3103 mal zero, rel. Häufigkeit 2.563% Abst. abs. rel. 0 84 2.70793% 1 78 2.51451% 2 89 2.86912% 3 79 2.54674% 4 75 2.41779% 5 68 2.19213% 6 85 2.74017% 7 69 2.22437% 8 77 2.48227% 9 60 1.93424% 10 52 1.67634% 11 58 1.86976% 12 57 1.83752% 13 51 1.64410% 14 51 1.64410% 15 63 2.03095% 16 45 1.45068% 17 43 1.38620% 18 47 1.51515% 19 33 1.06383% 20 44 1.41844% 21 47 1.51515% 22 42 1.35397% 23 48 1.54739% 24 35 1.12830% 25 33 1.06383% 26 39 1.25725% 27 38 1.22502% 28 35 1.12830% 29 36 1.16054% 30 30 0.96712% 31 42 1.35397% 32 37 1.19278% 33 25 0.80593% 34 38 1.22502% 35 31 0.99936% 36 31 0.99936% 37 31 0.99936% 38 33 1.06383% 39 28 0.90264% 40 28 0.90264% 41 31 0.99936% 42 27 0.87041% 43 23 0.74146% 44 25 0.80593% 45 22 0.70922% 46 29 0.93488% 47 23 0.74146% 48 30 0.96712% 49 20 0.64475% 50 21 0.67698% 51 21 0.67698% 52 24 0.77369% 53 16 0.51580% 54 20 0.64475% 55 18 0.58027% 56 21 0.67698% 57 20 0.64475% 58 17 0.54803% 59 7 0.22566% 60 10 0.32237% 61 20 0.64475% 62 20 0.64475% 63 13 0.41908% 64 14 0.45132% 65 7 0.22566% 66 23 0.74146% 67 11 0.35461% 68 10 0.32237% 69 17 0.54803% 70 12 0.38685% 71 12 0.38685% 72 15 0.48356% 73 13 0.41908% 74 11 0.35461% 75 14 0.45132% 76 7 0.22566% 77 12 0.38685% 78 13 0.41908% 79 13 0.41908% 80 11 0.35461% 81 8 0.25790% 82 10 0.32237% 83 14 0.45132% 84 14 0.45132% 85 14 0.45132% 86 2 0.06447% 87 11 0.35461% 88 7 0.22566% 89 8 0.25790% 90 7 0.22566% 91 14 0.45132% 92 8 0.25790% 93 8 0.25790% 94 6 0.19342% 95 9 0.29014% 96 5 0.16119% 97 3 0.09671% 98 7 0.22566% 99 7 0.22566% 100 2 0.06447% 101 9 0.29014% 102 5 0.16119% 103 2 0.06447% 104 10 0.32237% 105 9 0.29014% 106 3 0.09671% 107 8 0.25790% 108 3 0.09671% 109 5 0.16119% 110 8 0.25790% 111 2 0.06447% 112 5 0.16119% 113 3 0.09671% 114 7 0.22566% 115 6 0.19342% 116 6 0.19342% 117 2 0.06447% 118 5 0.16119% 119 7 0.22566% 120 3 0.09671% 121 1 0.03224% 123 2 0.06447% 124 7 0.22566% 125 4 0.12895% 126 2 0.06447% 127 2 0.06447% 128 3 0.09671% 129 6 0.19342% 130 3 0.09671% 131 2 0.06447% 132 1 0.03224% 133 1 0.03224% 134 3 0.09671% 135 1 0.03224% 136 1 0.03224% 137 2 0.06447% 138 1 0.03224% 139 2 0.06447% 140 3 0.09671% 141 1 0.03224% 142 5 0.16119% 143 3 0.09671% 144 1 0.03224% 145 1 0.03224% 146 2 0.06447% 147 1 0.03224% 148 1 0.03224% 149 2 0.06447% 150 1 0.03224% 151 5 0.16119% 153 1 0.03224% 157 4 0.12895% 160 1 0.03224% 161 1 0.03224% 163 1 0.03224% 166 2 0.06447% 169 2 0.06447% 170 3 0.09671% 173 2 0.06447% 174 1 0.03224% 175 1 0.03224% 176 3 0.09671% 178 2 0.06447% 179 2 0.06447% 184 1 0.03224% 185 1 0.03224% 188 2 0.06447% 190 1 0.03224% 191 1 0.03224% 193 1 0.03224% 194 1 0.03224% 198 1 0.03224% 169 2 0.06447% 170 3 0.09671% 173 2 0.06447% 174 1 0.03224% 175 1 0.03224% 176 3 0.09671% 178 2 0.06447% 179 2 0.06447% 184 1 0.03224% 185 1 0.03224% 188 2 0.06447% 190 1 0.03224% 191 1 0.03224% 193 1 0.03224% 194 1 0.03224% 198 1 0.03224% 205 1 0.03224% 207 1 0.03224% 209 1 0.03224% 211 2 0.06447% 214 2 0.06447% 216 1 0.03224% 221 2 0.06447% 223 1 0.03224% 226 1 0.03224% 233 1 0.03224% 234 1 0.03224% 291 1 0.03224% 307 1 0.03224% 350 1 0.03224% Grafik wäre natürlich schöner (und kürzer!) gewesen. Muss erst noch lernen, wie das geht. Gruß, Pascal
-
Hallo RCEC, Du solltest Deine Spielidee nicht kleinreden, ich finde sie sehr reizvoll. Schau mal bitte in Deinem Messenger nach. Gruß Pascal