Saturday, 8 April 2017

Andrei Malkov Devisenhandel

MFE - und MAE-Verteilungspunktdiagramme Maximaler Gewinn (MFE) und Maximalverlust - (MAE-) Werte werden für jede offene Bestellung während ihrer Lebensdauer aufgezeichnet. Diese Parameter charakterisieren zusätzlich jede geschlossene Order mit den Werten des maximalen nicht realisierten Potentials und des maximal zulässigen Risikos. MFEProfit - und MAEProfit-Verteilungsgraphen zeigen jeden Auftrag als Punkt mit dem erhaltenen Profitverlustwert entlang der X-Achse an, während maximale angezeigte Werte von potentiellem Gewinn (MFE) und potentiellem Verlust (MAE) entlang der Y-Achse aufgetragen sind. Setzen Sie den Cursor auf die Parameterbeschriftungen, um die besten und schlechtesten Handelsreihen zu sehen. Erfahren Sie mehr über MAE - und MFE-Distributionen im Artikel Mathematik im Handel: Wie man Handelsergebnisse schätzt. Statistische Modelle namens Hidden-Markov-Modelle sind ein wiederkehrendes Thema in der Computerbiologie. Was sind versteckte Markov-Modelle und warum sind sie so nützlich für so viele verschiedene Probleme Einleitung Oft ist die biologische Sequenzanalyse nur eine Frage des Setzens des richtigen Labels auf jeden Rest. Bei der Genidentifizierung wollen wir Nukleotide als Exons, Introns oder intergene Sequenzen markieren. In der Sequenzabstimmung wollen wir Reste in einer Abfragesequenz mit homologen Resten in einer Zieldatenbanksequenz verknüpfen. Wir können immer ein Ad-hoc-Programm für jedes Problem schreiben, aber die gleichen frustrierenden Probleme immer wieder auftreten. Eines ist, dass wir heterogene Informationsquellen integrieren wollen. Ein Genfinder, zum Beispiel, sollten kombinieren Splice-Site-Konsens, Codon Bias, Exon Intron Länge Präferenzen und offenen Leserahmen Analyse in einem Scoring-System. Wie sollten diese Parameter gesetzt werden? Wie sollten unterschiedliche Arten von Informationen gewichtet werden? Eine zweite Frage ist, die Ergebnisse probabilistisch zu interpretieren. Finden Sie eine beste Punktzahl Antwort ist eine Sache, aber was bedeutet die Punktzahl bedeuten, und wie zuversichtlich sind wir, dass die beste Punktzahl korrekt ist Ein drittes Problem ist Erweiterbarkeit. In dem Moment, in dem wir unseren ad-hoc-Genfinder perfektionieren, wünschten wir, dass wir auch einen Translationsinitiationskonsens, ein alternatives Spleißen und ein Polyadenylierungssignal modelliert hatten. Zu oft stapelt sich mehr Realität auf ein zerbrechliches Ad-hoc-Programm, das es unter seinem eigenen Gewicht zusammenbricht. Hidden Markov Modelle (HMMs) sind eine formale Grundlage für die Herstellung von probabilistischen Modellen der linearen Sequenz Labeling Probleme 1, 2. Sie bieten eine konzeptionelle Toolkit für den Aufbau komplexer Modelle nur durch ein intuitives Bild. Sie sind das Herzstück einer breiten Palette von Programmen, einschließlich der Gendfindung, Profilrecherche, Mehrfachsequenzanpassung und Regulierungsstandortidentifizierung. HMMs sind das Legos der rechnerischen Sequenzanalyse. Ein Spielzeug HMM: 5 Spleißstelle Erkennung Als ein einfaches Beispiel, stellen Sie sich die folgende Karikatur eines 5 Spleißstelle Anerkennung Problem. Nehmen wir an, dass wir eine DNA-Sequenz erhalten, die in einem Exon beginnt, eine 5-Spleißstelle enthält und in einem Intron endet. Das Problem besteht darin, zu identifizieren, wo der Schalter von Exon zu Intron aufgetreten ist8212wohin die 5 Spleißstelle (5SS) ist. Um uns intelligent zu erraten, müssen die Sequenzen von Exons, Spleißstellen und Introns unterschiedliche statistische Eigenschaften haben. Man kann einige einfache Unterschiede vorstellen: sagen wir, dass Exons im Durchschnitt eine einheitliche Basenzusammensetzung haben (25 Basen), sind Introns AT-reich (zB 40 für AT, jeweils 10 für CG), und das 5SS-Konsensus-Nukleotid ist fast immer ein G (Beispielsweise 95 G und 5 A). Ausgehend von diesen Informationen können wir ein HMM zeichnen (Abb. 1). Das HMM ruft drei Zustände auf. Eine für jede der drei Markierungen, die wir einem Nukleotid zuordnen könnten: E (Exon), 5 (5SS) und I (Intron). Jeder Staat hat seine eigenen Emissionswahrscheinlichkeiten (die über den Zuständen gezeigt werden), die die Basenzusammensetzung von Exons, Introns und dem Konsensus G an der 5SS modellieren. Jeder Zustand hat auch Übergangswahrscheinlichkeiten (Pfeile), die Wahrscheinlichkeiten des Übergangs von diesem Zustand in einen neuen Zustand. Die Übergangswahrscheinlichkeiten beschreiben die lineare Reihenfolge, in der wir erwarten, dass die Zustände auftreten: eine oder mehrere Es, eine 5, eine oder mehrere Is. Siehe Text zur Erklärung. Full size image (51 KB) Also, was verborgen ist Es ist sinnvoll, sich ein HMM vorzustellen, das eine Sequenz erzeugt. Wenn wir einen Zustand besuchen, emittieren wir einen Rest aus der Zustandsemissionswahrscheinlichkeitsverteilung. Dann wählen wir aus, welcher Zustand nach der Zustandsübergangswahrscheinlichkeitsverteilung weiter zu besuchen ist. Das Modell erzeugt somit zwei Informationsstränge. Einer ist der zugrundeliegende Zustandsweg (die Etiketten), während wir von Zustand zu Zustand übergehen. Die andere ist die beobachtete Sequenz (die DNA), wobei jeder Rest von einem Zustand in dem Zustandsweg emittiert wird. Der Zustandspfad ist eine Markov-Kette, was bedeutet, dass der Zustand, den wir als nächstes hinkriegen, nur von dem Zustand abhängt, in dem sie sich befinden. Da nur die beobachtete Sequenz gegeben wurde, ist dieser zugrunde liegende Zustandspfad versteckt8212das sind die Rest-Labels, Der Zustandpfad ist eine versteckte Markovkette. Die Wahrscheinlichkeit P (S, HMM), dass ein HMM mit Parametern einen Zustandsweg und eine beobachtete Folge S erzeugt, ist das Produkt aller Emissionswahrscheinlichkeiten und Übergangswahrscheinlichkeiten, die verwendet wurden. Betrachten wir z. B. die 26-Nucleotidsequenz und den Zustandsweg in der Mitte von Fig. 1. wo es 27 Übergänge und 26 Emissionen gibt, um nach oben zu töten. Multiplizieren Sie alle 53 Wahrscheinlichkeiten zusammen (und nehmen das Protokoll, da diese kleine Zahlen sind) und youll berechnen log P (S, HMM,) -41.22. Ein HMM ist ein volles probabilistisches Modell 8212die Modellparameter und die gesamten Sequenzbewertungen sind alle Wahrscheinlichkeiten. Daher können wir die Bayes'sche Wahrscheinlichkeitstheorie verwenden, um diese Zahlen auf standardisierte, leistungsfähige Weise zu manipulieren, einschließlich Optimierung von Parametern und Interpretation der Signifikanz von Scores. Suchen des besten Zustandpfads In einem Analyseproblem wurde eine Sequenz gegeben, und wir wollen den verborgenen Zustandpfad ableiten. Es gibt möglicherweise viele Zustandswege, die die gleiche Sequenz erzeugen könnten. Wir wollen das mit der höchsten Wahrscheinlichkeit zu finden. Wenn wir zum Beispiel das HMM und die 26-Nucleotidsequenz in Fig. 1 erhalten haben, gibt es 14 mögliche Wege, die eine Nicht-Null-Wahrscheinlichkeit haben, da das 5SS auf eines von 14 internen As oder Gs fallen muss. Fig. 1 zählt die sechs am höchsten bewerteten Wege (diejenigen mit G bei der 5SS) auf. Die beste ist eine logarithmische Wahrscheinlichkeit von -41,22, was bedeutet, dass die wahrscheinlichste 5SS-Position beim fünften G liegt. Für die meisten Probleme gibt es so viele mögliche Zustandsfolgen, die wir uns nicht leisten konnten, sie aufzuzählen. Der effiziente Viterbi-Algorithmus stellt sicher, dass der wahrscheinlichste Zustandspfad bei einer Sequenz und einem HMM gefunden wird. Der Viterbi-Algorithmus ist ein dynamischer Programmieralgorithmus, der denjenigen ähnlich ist, die für die Standardreihenfolge verwendet werden. Jenseits der besten Scoring-Ausrichtungen Abbildung 1 zeigt, dass sich ein alternativer Zustandspfad nur geringfügig vom Score des 5SS beim fünften G unterscheidet (Logwahrscheinlichkeiten von -41,71 gegenüber -41,22). Wie sicher sind wir, dass das fünfte G die richtige Wahl ist. Dies ist ein Beispiel für einen Vorteil der probabilistischen Modellierung: Wir können unser Vertrauen direkt berechnen. Die Wahrscheinlichkeit, dass der Rest i von dem Zustand k emittiert wurde, ist die Summe der Wahrscheinlichkeiten aller Zustandswege, die den Zustand k verwenden, um den Rest i (dh i k im Zustandsweg) zu erzeugen, der durch die Summe über alle möglichen Zustandswege normiert wird. In unserem Spielzeugmodell ist dies nur ein Zustandsweg im Zähler und eine Summe über 14 Zustandswege im Nenner. Wir erhalten eine Wahrscheinlichkeit von 46, dass die beste Punktzahl F richtig und 28 ist, dass die sechste Position G korrekt ist (Abb. 1. unten). Dies wird hintere Dekodierung genannt. Für größere Probleme verwendet die hintere Dekodierung zwei dynamische Programmieralgorithmen, die Vorwärts und Rückwärts, die im Wesentlichen wie Viterbi sind, aber sie summieren über mögliche Wege anstatt, die besten zu wählen. (Ii) die Anzahl der Zustände in dem Modell, M (iii) Emissionswahrscheinlichkeiten ei (x), (ii) die Anzahl der Zustände im Modell, Für jeden Zustand i. Dass Summe zu einem über K Symbole x. X e i (x) 1 und (iv) Übergangswahrscheinlichkeiten t i (j) für jeden Zustand i in einen anderen Zustand j (einschließlich sich selbst), der eine Summe zu eins über die M Zustände j hat. J t i (j) 1. Jedes Modell, das diese Eigenschaften aufweist, ist ein HMM. Dies bedeutet, dass man ein neues HMM nur durch Zeichnen eines Bildes entsprechend dem Problem, wie Abbildung 1 machen kann. Diese grafische Einfachheit lässt einen Fokus klar auf die biologische Definition eines Problems. Zum Beispiel, in unserem Spielzeug Splice-Site-Modell, vielleicht waren nicht glücklich mit unserer Diskriminierung Macht vielleicht wollen wir eine realistische Sechs-Nucleotid-Konsens GTRAGT auf der 5 Spleißstelle hinzuzufügen. Wir können eine Reihe von sechs HMM-Zuständen an Stelle des 5-Zustands setzen, um ein sechsseitiges, ungeschliffenes Konsensmuster zu modellieren, wobei die Emissionswahrscheinlichkeiten auf bekannten 5 Spleißstellen parametrisiert werden. Und vielleicht wollen wir ein komplettes Intron modellieren, einschließlich einer 3-Spleißstelle, die wir einfach eine Reihe von Zuständen für den 3SS-Konsens hinzufügen und einen 3-Exon-Zustand hinzufügen, um die beobachtete Sequenz in einem Exon anstelle eines Introns enden zu lassen. Dann vielleicht wollen wir ein vollständiges Gen-Modell zu bauen. Was auch immer wir hinzufügen, es ist nur eine Frage der Zeichnung, was wir wollen. HMMs behandeln nicht gut mit Korrelationen zwischen Resten, weil sie davon ausgehen, dass jeder Rest hängt nur von einem zugrunde liegenden Zustand. Ein Beispiel, bei dem HMMs gewöhnlich unangemessen sind, ist die RNA-Sekundärstrukturanalyse. Konservierte RNA-Basenpaare induzieren langreichweitige paarweise Korrelationen, wobei eine Position ein beliebiger Rest sein kann, der Basenpaar-Partner muss jedoch komplementär sein. Ein HMM-Statuspfad hat keine Möglichkeit, sich daran zu erinnern, was ein entfernter Zustand erzeugt hat. Manchmal kann man die Regeln der HMMs beugen, ohne die Algorithmen zu brechen. Zum Beispiel will man bei der Gentfindung ein korreliertes Triplettcodon anstelle von drei unabhängigen Resten emittieren. HMM-Algorithmen können ohne weiteres auf Triplett-emittierende Zustände ausgedehnt werden. Allerdings kann das grundlegende HMM-Toolkit nur so weit gedehnt werden. Über HMMs hinaus gibt es mächtigere (wenn auch weniger effiziente) Klassen von probabilistischen Modellen für die Sequenzanalyse. Referenzen Rabiner, L. R. Ein Tutorial zu versteckten Markov-Modellen und ausgewählten Anwendungen bei der Spracherkennung. Proc. IEEE 77. 2578211286 (1989). Artikel ISI Durbin, R. Eddy, S. R. Krogh, A. amp Mitchison, G. J. Biologische Sequenzanalyse: Probabilistische Modelle von Proteinen und Nukleinsäuren (Cambridge University Press, Cambridge UK, 1998). Sean R. Eddy ist am Howard Hughes Medical Institute amp Abteilung für Genetik, Washington University School of Medicine, 4444 Forest Park Blvd. Box 8510, Saint Louis, Missouri 63108, USA. E-mail: eddygenetics. wustl. edu MEHR ARTIKEL WIE DIESE Diese Links zu von NPG veröffentlichten Inhalten werden automatisch generiert. Hauptnavigation Zusatznavigation


No comments:

Post a Comment