Jump to content
Roulette Forum

Recommended Posts

Geschrieben

1. Allgemeines:

Die Gesetze der Kombinatorik.

Die Kombinatorik untersucht die verschiedenen Möglichkeiten der Anordnung von Gegenständen, wie Zahlen, Buchstaben, Personen etc. (allgemein auch als Elemente bezeichnet)

Die Zusammenstellung einer endlichen Anzahl solcher Elemente in irgend einer Anordnung, in der alle Elemente verwendet werden, heißt Permutation.

Anzahl der verschiedenen Permutationen von verschiedenen Elementen bezeichnet man als Fakultät mit dem Symbol ! z. B. (n!)= (n-Fakultät).

Die Permutation von 5! (5 Fakultät) = 5°4°3°2°1=120 (der Kreispunkt ° bedeutet ein Multiplikator)

n! = n ° (n-1) ° (n-2) ° ....°1 = n Fakultät. P(n) = n! = 1°2°3° ... °(n-1)° n

Sie auch unter http://www.bglerch.asn-ktn.ac.at/mathematik/math_komb.html

Allgemeines Beispiel:

Auf wieviele Arten kann ein Fußballtrainer die 11 Spieler seiner Mannschaft die Positionen tauschen lassen? 11! mal =

11! = 11 ° 10 ° 9 ° 8 ° 7 ° 6 ° 5 ° 4 ° 3 ° 2 ° 1 = 39.916.800

Wenn man nun dieses Beispiel auf die 37-Roulettezahlen bezieht, dann kann man bei 18 rote bzw. 18 schwarze plus (zero) erkennen, dass die Kombinatorik dieser Zahlen Permutationen in Trillionenhöhen entstehen läßt. (18 + zero) 19! Das bedeutet faktisch die Unendlichkeit einer Permanenz.

2. Testprogramme

Der Ermessensspielraum von Testprogrammen ist für eine praktische Ausnutzung in dieser Größenordnung nicht mehr durchführbar, da für eine praktische Auswertung hier die Komponente der Unendlichkeit existiert.

Außerdem gilt dieser Ermessensspielraum auch nur für eine durchgehende Permanenzstrecke ein und derselben Tisch-Wurfmechanik.

Wenn man nun wie hier bekannt mit Testprogramme arbeitet, die einerseits niemals eine durchgehende Teststrecke umfassen, nämlich die des Spieltisches, bei dem das Spielergebnis stattfindet, dann betrifft dieses Testergebnis auch nur die Zahlenfolgen, die diesem Test zugrunde gelegen haben und diese werden meistens aus verschiedenen Permanenzquellen zusammengewürfelt.

Die Entstehung korrekter Roulettezahlen sind immer an authentische Quellen gebunden und folgen auch immer dem Ausgleichsgesetz bei gegenseitiger Anordnung dieser Zahlenstrecken, z. b. rot/schwarz.

Was man hingegen sehr gut nachvollziehen kann, ist das zeitweilige Auseinanderdriften und wieder Zusammenlaufen dieser gegenseitigen Permutationsstrecken, z. B. schwarz/rot, dz1/dz2/dz3 trv´s usw.

Was die persönliche Permanenzstrecke angeht, so besteht diese entweder immer am gleichen Tisch, wenn dieser durchgehend bespielt wird, oder durch die Aneinanderreihung verschiedener Spielstrecken eines Spielers an verschiedenen Tischen.

Die Testalgorithmen hingegen betreffen immer nur die Spielstrecken, die man dem Test zuordnen kann. Das Auseinanderdriften von Ausgleichstendenzen ist dementsprechend am tatsächlichen Spielverlauf gebunden. Dieses Driften unterliegt ja den Term-Bildungen von Serien- und Figurengesetzen, die aber auch wieder Permanenz-relevant der hierbei gerade ablaufenden Permanenzstrecke entsprechen.

Abgesehen vom Sinn oder Unsinn solcher Computertests liegt m. E. ein praktikables und erfolgreiches Roulettespiel nur bei den variabel erscheinenden Tendenzstrecken, die ja bei allen Chancen als wellenförmig verlaufende, periodisch wiederkehrende Intermittenzen, Serienund anderen Mustern entstehen.

Durch diese gesetzliche Ausbildung kommt eine kontrollierbare Komponente ins Spiel. Diese ist zwar sehr dynamisch und immer nur kurz erfassbar, aber trotzdem, bei einer guten Strategie bzw. Taktik erfolgrei anwendbar.

Dies kann man aber nicht allgemein mit einem Langzeit-Test erfassen, denn dabei spielt das Ausgleichsgesetz der Tisch-Permanenzen nicht mit, weil diese ja nur für den Tisch oder an die persönliche Permanenz des Spielers gebunden ist und nur hierfür trifft das zu.

Der Vergleich mit Muster-Permanenenzen ist zwar Art-typisch aber nicht Spiel-identisch. Außerdem sind nach dem Fakultätsgesetz die Ausbildung von Permanenzstrecken, wie weiter oben bereits aufgezeigt, mit den im Verhältnis sehr kurzen Teststrecken der Computertests nicht vergleichbar.

Wenn mann z. B. einem Dutzend-Spiel folgt und stellt hiebei zeitweilig fest, daß irgend ein Dutzend z. B. 30 bis 50 Coups nicht in Erscheinung tritt und sucht nun nach dem Grund hierfür, erfährt man sehr schnell , dass die PM hierfür eine Geschichte durlaufen hat.

Es ist heutzutage sehr einfach an PM-Kopien heranzukommen. Beim Studium solcher PM´s kann man dann recht gut erkennen, dass Ballungen oder Permanezlücken mit den dynamischen Gesetzfunktionen von z. B. Serien- Figurem- Mustern oder Ähnliche, Coup-Ballungen bilden, die auf der andern Seite der PM -Strecke diese Löcher verursachen. Nach dem Ausgleichsgesetz werden diese Löcher an anderer Stelle wieder ausgefüllt und dadurch bleiben alle Permanenzen in einem stetigen dynamischen Ausgleich.

Neue Systemvorstellungen und deren Computer-Austestungen führen immer in die gleiche Sackgasse, obwohl viele dieser Tests aus vorweg erwähnten Gründen m. E. unrealistisch sind.

Die Hochachtung vor solchen Tests, gefolgt von einer Unsachkenntnis derer theoretischer Zusammenhänge der Testnehmer lässt dann das Kartenhaus schnell in sich zusammenfallen.

Da nun solche Tests in der Regel nicht viel bringen und es noch lange nicht erwiesen ist, dass Testcomputer mit einschlägiger Testsoftware realistische, Problem-orientierte Ergebnisse bringen, wäre es vonnöten sich hier was einfallen zu lassen.

Erstmal sollte man mit zusammenhängenden Jahres-Permanenzen testen. Hierbei könnten sich die Testnehmer möglicherweise an den Rüstkosten beteiligen, damit man solche durchlaufende Jahrespermanenzen anschaffen kann oder aber einen Partipiziermodus vereinbaren.

Ich habe über viele Jahre ein Software-Unternehmen geleitet und mich schon sehr früh mit Basic, C und C++ (Objekt orientiert) auseinander gesetzt. Ich weiß genau wovon ich rede.

Wichtig ist außerdem noch einen zuverlässigen Testalgorithmus festzulegen, damit hier realistische Auswertungen zustande kommen können. Man sollte auch dieTestprogramme so gestalten, dass sie exakte Ursachen-Analysen durchführen,

damit man schnell zu Modifikationen kommen kann.

Gruß

henri

Geschrieben (bearbeitet)
Man sollte auch dieTestprogramme so gestalten, dass sie exakte Ursachen-Analysen durchführen,

damit man schnell zu Modifikationen kommen kann.

Guten Morgen Henry,

Wenn man deinen Gedanken weiterspinnt, braucht man nach jeder Modifikation eine neue Teststrecke.

Alles andere birgt die Gefahr der Rückoptimierung.

Und noch eins zu den Permanenzen, es gibt keine fehlerfreien Permanenzen, leider.. aber das ist wohl auch nicht unbedingt "Kriegsentscheidend"! :drink:

mfg

carlo :drink:

bearbeitet von Carlo
Geschrieben

Hallo henri,

ein sehr interessanter Ansatz.

Ich möchte aber eine Aussage bezüglich Computertests klarstellen. Wie du richtig anmerkst, gibt es keine starren, erfolgreichen Systeme und somit sind folgerichtig auch Computertests dieser Systeme "sinnlos". Für den unbedarften Leser liest es sich dein Beitrag allerdings so, als ob die Systemstests mit Original-Permanenzen sinnlos wären und nicht das System an sich. Also die Ursache ist das System, nicht der Langzeittest. Wenn du diesen Punkt richtigstellen würdest, wäre ich dir sehr dankbar. Ansonsten spielst du jedem Systemverkäufer in die Hände. Dieser könnte mit deiner Argumentation behautpen, Langzeittests sind sinnlos und sein System somit doch Dauergewinnfähig.

Ich gehe konform mit deiner Aussage, dass starre Systeme nicht funktionieren können. Deshalb werden ja auch die Computertests gemacht, um vornehmlich leichtgläubigen Käufern und unseriösen Systemverkäufern nachzuweisen, dass ihr System kein Dauergewinnsystem ist. Also ist der "Übeltäter" ja nach das Programm, sondern das System :drink:

Bitte beachte auch, dass die z.B. meine Systemtest sehr wohl mit zusammenhängenden Permanenzen durchgeführt werden. Also z.B. mit vier zusammenhängenden Jahren aus Bad Homburg.

Ich denke nicht, dass es mit Kosten verbunden ist, eine zusammenhängende Permanenz zu erstellen. Mann kann sich z.B. von Hamburg zusammenhängende Tagespermanenzen über einige Jahre herunterladen und diese dann zu einer Permanenz verknüpfen. Dies ist für einen Programmierer nur ein paar Stunden Aufwand.

Geschrieben

Das passt vielleicht hierzu:

Ich habe alle Permanenzen des GPC vom Jan 03 bis Jul 04 (immerhin etwa 300.000 Zahlen) mal dahingehend untersucht, ob es signifikante Ausreißer hinsichtlich der Häufigkeitsverteilung einzelner Zahlen gibt.

Und tatsächlich: Im Jahr 2003 gab es Zahlen, die konsequent jeden Monat entweder mindestens 2% öfter (2, 12, 23) oder seltener (6, 31) als die erwartete Normalverteilung auftauchten. Angesichts der Wellenbildung könnte man nun davon ausgehen, dass sich die Erscheinungshäufigkeit dieser Zahlen irgendwann in 2004 beginnt entgegengesetzt zu entwickeln um einen Ausgleich durch eine Wellenbildung in's Gegenteil zu vollziehen. Und dies stimmt: alle diese Zahlen entwicklen sich in den letzten 6 Monaten gegenteilig zu ihrer Tendenz aus 2003.

Oder drei andere Zahlen (die 0, die 30 und die 33) waren als einzige keinen einzigen Monat mehr als 2% außerhalb der Normalverteilung. Also wäre zu erwarten, dass diese beiden Zahlen eines Tages beginnen eine Welle ober- oder unterhalb Normalverteilung zu bilden. In der Tat zeigt die 0 in 2004 eine Tendenz regelmäßig häufiger zu erscheinen als die Normalverteilung, die 30 hat einander ausgleichende Ausreißer und die 33 eine Tendenz seltener zu erscheinen als der Durchschnitt.

Wenn man also eine umfangreiche Permanenz besitzt und die Zahlen diesbezüglich auswertet, kann man vielleicht zukünftig seltener oder häufiger auftretendere Zahlen herausfinden. Wenn ich Zeit und Lust habe werde ich mal die weiteren Permanenzen des GPC seit Jan 2000 diesbezüglich untersuchen, vielleicht kann man über diesen langen Zeitraum in der Tat sich vollendende unter intermittierende Wellen um die Normalverteilung herum erkennen. Wenn dies so ist, kann man vielleicht ein zu erwartendes über- oder unterproportionale Auftreten einzelner Zahlen in den kommenden Monaten prognostizieren.

Ob dies für das aktuelle Roulettespiel von Bedeutung ist, steht allerdings auf einem anderen Blatt: Auch wenn ich mit einiger Sicherheit weiß, dass eine bestimmte Zahl in den nächsten 6 bis 12 Monaten regelmäßig mehr als 2% häufiger oder seltener als der Durchschnitt auftreten wird, wird ich wohl kaum deswegen mit Roulette zum Millionär...

Beste Grüße

Rabert

Geschrieben

Wenn man also eine umfangreiche Permanenz besitzt und die Zahlen diesbezüglich auswertet, kann man vielleicht zukünftig seltener oder häufiger auftretendere Zahlen herausfinden. Wenn ich Zeit und Lust habe werde ich mal die weiteren Permanenzen des GPC seit Jan 2000 diesbezüglich untersuchen, vielleicht kann man über diesen langen Zeitraum in der Tat sich vollendende unter intermittierende Wellen um die Normalverteilung herum erkennen. Wenn dies so ist, kann man vielleicht ein zu erwartendes über- oder unterproportionale Auftreten einzelner Zahlen in den kommenden Monaten prognostizieren.

Moin Rabert,

Du sprichst von HH. Dort werden alle 14 Tage die Kessel überprüft und gewartet.

Die von Dir beobachteten Wellen, Ballungen, oder wie auch immer setzen, wenn sie nicht im Normalbereich irgendwelcher Schwankungen sein sollten, immer den selben UNVERÄNDERTEN Kessel voraus.

Wenn ich mich irre, lasse ich mich gerne eines Besseren belehren...

gruss

carlo

Geschrieben

@ Carlo

Du sprichst von HH. Dort werden alle 14 Tage die Kessel überprüft und gewartet.
Ich habe alle Permanenzen des GPC vom Jan 03 bis Jul 04 (immerhin etwa 300.000 Zahlen) mal dahingehend untersucht, ob es signifikante Ausreißer hinsichtlich der Häufigkeitsverteilung einzelner Zahlen gibt.

Nicht HH, sondern Global Player Casino. Hier gibt es ein Programm, dass sicherlich nicht alle paar Monate ausgewechselt wird...

Beste Grüße

Rabert

Geschrieben (bearbeitet)

Rabert :drink:

Hätte wohl besser RICHTIG lesen sollen. :drink:

War natürlich totaler Quatsch in diesem Zusammenhang.

Aber dann zum GPC. Ein Bekannter von mir hat dort eine Plein-Satzweise ausgeklüngelt, die zunächst mal über 150000 Coups rückoptimiert wurde, irgendwo muss man ja anfangen. Dann lief das Ding über weitere 100000 Coups im 8-12 Prozentbereich, um sich in den nächsten 50000 Coups im Nirwana aufzulösen.

Soweit mir bekannt ist sind die Bossmedia und auch die vom GPC verwendeten Zufallsgeneratoren leider über jeden Zweifel erhaben.

Der Excel-Generator ist für einen Fachmann dagegen problemlos zu "knacken"...

mfg

carlo :drink:

bearbeitet von Carlo
Geschrieben

@ Carlo

Gerade weil die Zufallsgeneratoren von Bossmedia und GPC über jeden Zweifel erhaben sind, müsste die Theorie ja stimmen.

Fakt ist, dass es (zumindest beim GPC) Ausreißer in der Häufigkeitsverteilung gibt. Fakt ist ebenfalls, dass bei richtig guten Zufallsgeneratoren sich diese Ausreißer irgendwann durch Amplituden in die entgegengesetzte Richtung wieder der Normalverteilung annähern.

Wenn also eine Zahl auffallend oft und stark über einen längeren Zeitraum von der Normalverteilung abweicht, kann eine entgegengesetzte Reaktion in der Zukunft erwartet werden.

Dies gilt sicherlich nicht für Live-Kasinos, wo zumindest die subjektiven Unbestimmbarkeiten der Croupiers nie eine perfekte Normalverteilung ermöglichen. Bei Zufallsgeneratoren von Online-Kasinos ist dies aber m.E. anders. Hier arbeitet die Software auf die perfekte Normalverteilung hin und wird sie für jede Zahl auch in größeren zeitlichen Abständen immer wieder einmal erreichen, wenn die Amplitude die Normalverteilungsachse schneidet. Allerdings wird die Häufigkeitsverteilung einer jeden Zahl praktisch stets mehr oder weniger stark um die Normalverteilungs-Achse herumschwingen, und zwar regelmäßig eine Zeitlang über dieser Achse und danach eine Zeitlang darunter.

Das könnte man doch sicherlich irgendwie nutzen...

Beste Grüße

Rabert

Geschrieben

Hallo Rabert,

>>>regelmäßig mehr als 2% häufiger oder seltener als der

>>>Durchschnitt auftreten wird, wird ich wohl kaum deswegen

>>>mit Roulette zum Millionär...

Nein, denn Du brauchst ja schon 2,7%, um überhaupt auf Null zu kommen.

sachse

Geschrieben

Hallo Rabert,

>>>Hier arbeitet die Software auf die perfekte Normalverteilung hin

>>>und wird sie für jede Zahl auch in größeren zeitlichen Abständen

>>>immer wieder einmal erreichen, wenn die Amplitude die

>>>Normalverteilungsachse schneidet.

Nochmals Einspruch Euer Ehren,

Auch die Software (bzw. der Geigerzähler im Zufallsgenerator) habt wie die Kugel kein Gedächtnis. Würde sie auf den Ausgleich hinarbeiten, wäre es eben KEIN Zufallsgenerator. Die Normalverteilungsachse kann, muss aber nicht zwangsläufig geschnitten werden.

sachse

Geschrieben

Hier die Verteilung der Zahl 6 über von Jan 03 bis Jul 04. Ich habe das jetzt so geändert, dass nur die Monate gezählt werden, in denen die tatsächliche Häufigkeit um mehr als 2,7% von der Normalverteilung abweicht (lex sachse).


-2 -2 -2 -2 -2 -2 -2 -2 -2 -2 -2 -2  -2 -2   2

Von Jan 03 bis Dez 03 gab es eine stabile Abweicher > -2,7% jeden Monat. Im Jan 04 dann eine Abweichung < 2,7%, dann wieder zwei Monate mit > -2,7%, dann wieder ein Monat < 2,7% und im Juli die erste Abweichung mit > +2,7%.

Ich denke, wir können an dieser Zahl gerade wunderbar das Umkippen von einer stabilen Minustendenz in eine zu erwartende ausgeprägte Plustendenz beobachten. In den nächsten Monaten ist es sehr gut möglich, dass die Zahl 6 spürbar häufiger auftritt als es der Normalverteilung entsprechen würde.

Es wäre jetzt interessant zu wissen wie sich diese Zahl in den vergangenen Jahren verhalten hat. Endet gerade eine dreijährige Minusphase? Ist das der dritte oder vierte Amplitudenwechsel in 4 Jahren? Ist dies der fünfte Anlauf zum Wechsel in's Plus, nachdem die vier vorhergehenden nach wenigen Monaten abbrachen?

Ich hab' nur im Moment echt keine Lust die GPC Permanenzen ab Jan 2000 so aufzubereiten, dass ich brauchbare Monatsreihen habe. Mir ist da nämlich noch nichts besseres eingefallen als in der Excel-Tabelle händisch jede einzelne Zelle zu löschen, in denen die Tageswechsel annonciert werden...

Beste Grüße

Rabert

Geschrieben
Nochmals Einspruch Euer Ehren,

Auch die Software (bzw. der Geigerzähler im Zufallsgenerator) habt wie die Kugel kein Gedächtnis. Würde sie auf den Ausgleich hinarbeiten, wäre es eben KEIN Zufallsgenerator. Die Normalverteilungsachse kann, muss aber nicht zwangsläufig geschnitten werden.

sachse

Wenn das stimmt, stimmt auch die Generalaussage mit den -2,7% bzw. -1,35% Verlust über die Zeit nicht.

Natürlich arbeitet der Zufallsgenerator nicht auf die Null hin. Das macht der Zufall selbst. Was wir nicht wissen ist, wie lang die Amplituden in der Plus- oder in der Minusphase verweilen. Was wir wissen ist, dass über die Unendlichkeit alle Zahlen gleichmäßig häufig auftreten, und zwar mit einer Häufigkeit von exakt 2,70 % aller gefallenen Zahlen. Wahrscheinlich wird auch alle paar Monate oder alle paar Jahre jede Zahl exakt 2,70 % aller gezogenen Zahlen erreichen - und dann wieder über- oder unterschreiten. Ich glaube nicht, dass ein guter Zufallsgenerator die eine Zahl über lange Zeit deutlich häufiger und eine andere dafür deutlich seltener erzeugen wird.

Das kann man nutzen, denke ich. Dafür müsste man jetzt nur wissen wie lang im Schnitt so eine Amplitude im Plus oder im Minus verweilt - und ob es diesbezüglich überhaupt eine signifikante Gleichförmigkeit gibt. Etwa so dass ungefähr all 18 bis 24 Monate eine Zahl einmal die Nulllinie schneidet. Passiert dies im Schnitt alle 6 bis 9 Monate, könnte man vielleicht tatsächlich ein Strategie darauf aufbauen. Passiert dies jedoch nur alle 50 bis 100 Monate, ist dies zwar eine nette Theorie, aber ohne jeden Praxiswert.

In dem von mir beobachteten Zeitraum von 19 Monaten sieht es allerdings so aus, als ob ein Trend, wenn er denn da ist, nach etwa 12 bis 15 Monaten umkippt.

Beste Grüße

Rabert

Geschrieben
In dem von mir beobachteten Zeitraum von 19 Monaten sieht es allerdings so aus, als ob ein Trend, wenn er denn da ist, nach etwa 12 bis 15 Monaten umkippt.

Und was gibt Dir die Sicherheit, dass der Trend das immer wieder nach der gleichen Zeitspanne tun wird?

Du müsstest Milliarden und Abermilliarden von Coups aus ein und der selben Zufallsquelle auswerten. Und selbst dann weisst Du noch nicht, ob Deine gefundenen Zeitspannen für die Zukunft allgemeingültig sind, oder nur ein Zufallsprodukt dieser isolierten Prüfstrecke.

Gruss: TKC

Geschrieben

Hallo Chi Lu Jung

deine Antwort auf mein Posting ist für mich nicht zufriedenstellend. Nicht weil Du ein anderes Argumend einbringst, sondern mehr aus dem Grunde, weil die Gegenargumente unzulänglich sind, da sie nicht den ganzen Komplex umfassen.

Ich möchte mich auch nicht falsch verstanden wissen. Es geht mir nicht darum Computertests anzuzweifeln im Sinne einer persönlichen Attacke, sondern vielmehr darum, die Hintergründe besser zu durchleuchten.

Mein Referat über die Kombinatorik von Roulette-Permutationen sagt ja nicht aus, dass euere Testprogramme nicht funktionieren, sondern vielmehr, dass die Tests gemessen am Datenaufwand der Kombinationsmöglichkeiten von Roulettezahlen im Endeffekt nur eine ganz kleine Strecke der möglichen Permanenzlängen erfassen und damit auch nur eine sehr beschnittene Teststrecke zur Verfügung stellen.

Das wirkt sich in der Praxis so aus, dass eine Roulettestrategie am Tisch Nr. 1 im Casino Hamburg ganz andere Ergebnisse bringt wie die gleiche Strategie im Casino Wiesbaden am Tisch 7.

Es ist sogar nicht notwendig zwei verschiedene Casinos auszuwählen. Der Tisch neben an hat eine andere Charakteristik wie Tisch 3 odr 5 oder .....

Hier liegt das eigentliche Problem begraben.

Es ist auch weitläufig bekannt, dass in Casinos für Roulettespieler bestimmte Tische oder besser gesagt ein ganz bestimmter Tisch den Erfolg garantiert.

Das ist keine Hexerei, sondern eine günstige Spielstrecke für die Strategie eines Zockers, die sein ganzes Leben lang anhalten kann (100.000 Coups im Verhältnis von Trillionen möglichen Coups)

Wie wäre es sonst auch zu erklären, dass Testimonien von Spielergebnissen aus unterschiedlichen Casinos mittels Jahrespermanenzen so divergieren.

Das hat nichts mit euerer Arbeit oder Qualifikation zu tun, das ist einfach Fakt oder ein Natur-Phänomen.

Es gibt sicherlich Qualitätsmerkmale bei Roulettestrategien aber eben auch ganz besonders die von mir erwähnten.

Die Frage hierbei wäre, ob man mit seiner persönlichen Permanenz solche Probleme nicht umgehen kann?

Denkt da mal drüber nach!!

Gruß

henri

Geschrieben

Aber wenn du es so siehst, bekommst du die "richtige" Ergebnisse, die den Verlauf der Permanenz in jeder Situation wahrheitsgetreu wiederspiegeln!? Sollte man deshalb gar keine Tests mehr durchführen?

Geschrieben

Hallo henri,

ich habe das Gefühl wir reden aneinander vorbei. Was ich nur klarstellen wollte, ist die Tatsache, dass starre Systeme in der Form "5x Rot abwarten und auf 7x Schwarz" setzen nicht funktionieren. Da viele User / Systemkäufer und -verkäufer dies nicht wahrhaben wollen, besteht meine Absicht darin, an Hand von Langzeittests zu beweisen, dass diese Systeme auf Dauer ins Minus läuft. Damit kann dann jeder Leser selber sehen, dass es durchaus Strecken gibt, bei denen das System sehr gutes Plus abwirft. Andererseits gibt es Strecken, die stark ins Minus laufen. Damit ist meine Arbeit auch schon getan und den Systemverkäufern hoffentlich das Handwerk gelegt. Deswegen wollte ich eine Klarstellung hinsichtlich der Tatsache, dass Langzeittests von starren Systemen sehr wohl aussagekräftig sind.

Also noch einmal im Klartext, ich programmiere nur deshalb starre Systeme, um Lesern aufzuzeigen, dass diese auf Dauer ins Minus laufen. Nicht mehr und nicht weniger. Und dazu sind Langzeittests sehr wohl gut geeignet und erfüllen auch ihren Zweck.

So, nun bin ich auch schon stil und harre deiner weiteren Ideen. :drink:

Geschrieben
Also noch einmal im Klartext, ich programmiere nur deshalb starre Systeme, um Lesern aufzuzeigen, dass diese auf Dauer ins Minus laufen. Nicht mehr und nicht weniger. Und dazu sind Langzeittests sehr wohl gut geeignet und erfüllen auch ihren Zweck.

:drink::drink::drink:

mfg

carlo :drink:

Geschrieben

@ Rabert

Hallo Rabert,

Dein letzter Satz in einem Deiner Postings vermutet ein möglicher Trendwechsel.

Hast Du schon mal überlegt, dass sowas auch Mathematik sein kann.

Die Leute aus der früheren EDV haben mit Papierlochstreifen für Daten Ein- und Ausgabe an Mainframe-Rechnern z. B. IBM, gearbeitet.

Hier an diese Lochstreifen hätte man Deine Trend-Vermutung gut erklären können.

Diese Lochstreifen arbeiteten mit dem Binärsystem, wie alles in der EDV- oder PC-Welt.

Wenn z. B. Die Lochformationen, die ja im Endeffekt Zahlen und Buchstaben aus dem Dezimalsystem interpretieren. in eine höhere Wertigkeit wechselten, dann war das erste Bit eines Binär-Byts ein einsames Loch in der nächst höheren Position des Lochstreifens. Das interpretiert z. B. die Dezimalzahl 65, die von 64 aus einem Vielfach-Lochspektrum in den nächsten Lochkanal wechselte und optich nur ein einziges Loch näher zum Lochstreifenrand darstellte.

Das nannte man dann einen Dekadensprung im Binarsystem; letztendlich so ähnlich wenn man in einem Zahlensystem von 1000000 (Million) 1000001 auf eine Million+1 hoch ging. Die Struktur der vorausgegangenen Zahlen wird dann in einem Schlag gelöscht und die Grundzahlen 1,2,3 usw. bauen sich dann wieder ganz von vorne auf.

Das ist kein Trendwechsel. sondern ein Wertwechsel (mathematisch)

Gruß

henri

Geschrieben

Hallo DC

nein.... ich möchte euch ja garnicht zu nahe treten und respektiere ja auch euere Einstellung.

Ich möchte auch nicht, dass sich hier prekäre Fronten aufbauen. Meine Idee wie auch Absicht geht mehr dahin, ob man mit einer (seiner) persönlichen Permanenz grundsätzlich den Quantensprung eliminieren kann. Wenn möglich, nur so!

Gruß

henri

Geschrieben

Zusatzinformationen zu dem Beitrag von Henri:

1. Historische Einordnung

Der Mathematiker George Boole(1815-1864) war der Begründer der mathematischen Logik.

Seiner Ansicht nach ist eine Aussage "wahr" oder "falsch", oder sie wird "negiert" –

etwas anderes kann es nicht geben! Alle anderen Aussagen müssen darauf zurückzuführen sein.

Diese algebraische Beschreibung logischer Probleme wurde nach ihren Entwickler Boole benannt,

die "Boolsche Algebra" gliedert sich heutzutage in folgende Punkte:

Mengenalgebra

Aussagenalgebra und symbolische Logik

Wahrscheinlichkeitsrechnung

Schaltalgebra

Erst viel später, nachdem Schaltungen auf binäre Basis (0,1) bereits existierten,

erkannte man in der "Boolschen Algebra"

das allgemeine mathematische Beschreibungsmittel zum Entwurf von Schaltungen.

2. Erklärung des Begriffes "binär"

Das Wort "binär" bedeutet auch zweiwertig, dual oder bivalent.

Es bezeichnet die Eigenschaften einer Speicherzelle,

einen von zwei Werten anzunehmen.

Datenverarbeitungssysteme (DV-Systeme) bestehen aus elektronischen Bauelementen;

diese elektronischen Bauelemente können nur zwei verschiedene Zustände annehmen,

deshalb werden Sie auch binäre oder duale Bauelemente genannt.

Es gib eine ganze Reihe von Darstellungsmöglichkeiten für diesen zweiwertigen Zustand.

Der Strom fließt oder fließt nicht (elektrischer Leiter)

Der Strom fließt nach links oder rechts (geschlossener Leiter)

Es liegt eine positive oder negative Spannung an (Halbleiter)

Ein Magnetfeld besteht oder besteht nicht (Magnetspeicher)

Alle zweiwertigen Zustände haben eines gemeinsam:

sie können in kurzer Zeit die Form verändern,

da sich im Idealfall elektrische oder magnetische Felder bzw.

Licht mit einer Geschwindigkeit von 300000 km/sec bewegen.

Daraus läßt sich die hohe Geschwindigkeit folgern,

mit der die Rechner heutzutage arbeiten.

Um den zweiwertigen Zustand auch außerhalb des Rechners darzustellen,

verwendet man das binäre Zahlensystem.

Dabei werden die beiden Ziffern 0 und 1 als jeweiliger Ausdruck für

einen der beiden möglichen Werte verwendet.

3. Erklärung des Begriffes "code"

Ein Code dient zur Übertragung von Informationen in einer Zeichenart zu

einer anderen Zeichenart. Das bedeutet eine formale Änderung,

wobei der Inhalt der Information unverändert bleibt.

Als Code wird in diesem Zusammenhang häufig auch ein bestimmter Zeichenvorrat bezeichnet,

wie z.B. der ASCII-Code oder der EBCDI-Code.

4. Binär Codes (binary codes)

Der binär Code ist auch bekannt als binäre Verschlüsselung oder Dualcode.

Dieser Code basiert auf zweiwertiger Basis, also nur zwei verschiedene Zeichen.

Zur Darstellung ausreichend großer Mengen unterschiedlicher Zeichen

werden Kombinationen von Binärzeichen (sogenannte Bitmuster) gebildet.

Grundlage für dieses Bit ist der Inhalt 0 oder 1; für die Darstellung

einer Dezimalzahl sind mindestens 4 Bit nötig. Mit 4 Bit können 24 = 16 Zeichen

verschlüsselt werden, also auch die Dezimalzahlen 0-9.

Diese Kombinationen werden auch als Tetraden bezeichnet.

Die restlichen Kombinationen der Dezimalzahlen 10-15 bezeichnet man als Pseudotetraden.

Geschrieben

Hallo Chi Lu Jung,

seit dem ich kapiert habe, dass eine Permanenz sich nicht mit 10 Millionen Coups erschöpft und in riesige Sphären verläuft, muss man sich überlegen, wie man mit diesem Medium zurecht kommt.

Normalerweise kann kein starres System dem ausweichen und ich bin inzwischen der Ansicht, dass man nur über eine verharrende Tendenz diesem astronomischen Verlauf der PM entweichen kann.

Eine Taktik hierfür können nur die Zwischenformationen wie Muster Bilder und ähnliche periodische Ausbildungen sein. Wenn das zusammen mit einer PPM funktioniert, dann wäre das optimal. Bisher komme ich mit meiner Spielweise auf Bilder, Muster in wellenförmigen Formationen sehr gut zurecht. Die PPM könnte das event. noch verbessern. Dafür ist aber ein Training zu absolvieren.

Was mich trotzdem bei System-Tests irritiert ist:

Ein Systemanbieter (Kostenlose Systeme mit Jahres-Tests) hatte 3 Spielbanken Jahrestests veröffentlicht.

Einer sehrgut, der zweite mäßig und der dritte voll im Minus; alle beim gleichen System. Das wurde auch als ganz natürlich eingestuft.

Ich jedoch. bin erstmal stutzig geworden. Die Erklärung ging in die Richtung meines Thread-Themas.

Davon bin ich auch inzwischen überzeugt. Auch wenn ihr ein System findet was eueren Tests stand hält, so ist das überhaupt nicht verbindlich, denn Eure Testpermanenzen verlaufen dann nur zufällig in einen günstigen Bereich für die Systemfunktion. Weder 2 Jahre PM´s noch 10 Jahre, was ist das schon bei der Kombinationsvielfalt, ein Staubkorn in der Wüste

Das ist die Rückseite Eurer Medaillie

Gruß

Henri (in Freundschaft)

henri

Geschrieben

Hallo Henri,

aber da sind wir doch der gleichen Meinung. Auch ich bin der Meinung, dass es kein starres System gibt, welches einem Langzeittest mit einer Permanenz beliebiger Länge standhält. Deswegen gibt es auch kein System, dass meinen Tests standhält!

Aber um diese Tatsache einem Systemverkäufer bzw. -käufer klarzumachen, ist es nun mal der einfachste und anschaulichste Weg, ein System zu programmieren und dann mit Originalpermanenzen zu testen. Und selbst wenn mal 3 Jahre ins Plus laufen, kann man sicher sein, dass die nächsten paar Monate alle Gewinne wieder auffressen. Mich brauchst du davon nicht zu überzeugen

:biglaugh:

Also noch einmal, es ist nicht meine Medaillie sondern nur ein Hilfsmittel für mich, um Systemverkäufern das Handwerk zu legen!

Aber nun zurück zum Thema. Auch ich bin auf der Suche nach einer Verbesserung meines persönliches Spiels. Ich spiele auf kurzfristige Muster mit High/Low Sätzen auf Grund der persönlichen Permanenz. Manchmal auch verbunden mit einer Progression in den High-Sätzen. Damit schaffe ich es zwar, einige tausend gesetzte Coups im Plus abzuschliessen, aber irgendwann verläßt mich dann die Disziplin und ich fange wieder an zu zocken. Also sehe ich das Roulette-Problem eher als charakterliches Problem an.

Geschrieben

Hallo anfaenger,

ich bin erstaunt über Dein Wissen. Holst Du Dir das einfach aus der Mütz oder besitzt Du ein Spezial-Lexikon.

Das habe ich mal alles für mein Ingenier-Examen gebraucht. Das war dann auch später mein Beruf.

Ich habe viele interessante Sachen gemacht und bin in der ganzen Welt herumgekommen-alles in dieser Technik und Terminlogie.

Ich habe auch Rechner und Peripherie entwickelt und in Betrieb genommen. Dann habe ich mich eine ganze Zeit mit Software beschäftigt. Das waren schöne Zeiten.

Ans Roulettespielen bin ich in Las Vegas und Puerto Rico gekommen, nebst all den Bits und Byts.

Die schönste Story war mein Black Jack Debüt in Las Vegas.

Ich habe immer nur mit 2 Dollars gesetzt und richtig abgeräumt, obwohl ich vorher noch nie Black Jack gespielt hatte. Das war auch reiner Zufall weil Casino im Hotel. Meine Mitspieler waren richtig sauer auf mich, zumal ich ihnen erzälte, that´s my first gamble. Ich bekam auch direkt einen Spitznamen "The German Greenhorn"

War aber trotzdem sehr schön

Gruß

henri

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...