widzisz ptysiu - proste metody probabilistyki na podstawie historycznych danych typu MACD czy ADX czy RSI opieraja sie zazwyczaj na akcji cenowej nie uwzgledniajac wolumenu, regresja nieparametryczna z dowolnym jądrem i zmiennym oknie zaś to próba dostosowania "krzywej sredniej" do kształtu przeszłych i przyszych punktó ceny jak najdokladniej. Do ważenia ceny dochodzi wolumen (i nie jest to zwykla krzywa VWMA) ktory oblicza wagi na strukturach historycznych np. odstep miedzy pivotami 25 waga lewo 5 waga prawo 3 (takie typowe modelowanie price action), przypisuje prawdopodobieństwo wystepowania na bazie próbek np. na 50 ostatnich plus zapisanie ich w tablicach gdzie kazda kolejna jest typowana a ostatnia kasowana. Na kazda taka strukture nakładany jest profil wolumenowy i badana jest siła/efektywność fraktalna POC-a jako dominanty i VAH i AL jako podstruktury w strukturze min max wyznaczanej pivotami. Kiedy każda z tych przykładowych 50 struktur jest "wyważona" to do do kazdego punktu krzywej gaussa dokłądane sa wagi z tej struktury - tak powstaje średnia modelowana i wolumenem i cena i strukturalną waga wolumenową. Ostatecznie na podstawie próbek historycznych wyświetlana jest zwykła dwukolorowa krzywa gdzie na końcy ma markery zasiegu ceny z narysowanymi prawdopodobnymi poziomami spadku lub wzrostu. Calość obliczana jest w max kilkanaście sekund przy 200 próbkach i za ostatnią świeczką mam kilka cyferek i kresek ;) nazywa się to machine learning...
O dziwo działa nawet na niskowolumenowych ale o długiej historii papiera - trafnosc i prognozy oscylują zazwyczaj w okolicach 70-85%