Moją dziedziną zawodową jest signal processing, po naszemu przetwarzanie danych, a w moim przypadku "odtwarzanie danych" -
co, mówiąc obrazowo, polega na wyciąganiu informacji ze zbioru danych, w którym tej informacji, z pozoru, nie widać. Stosowałem metody numeryczne ("komputerowe") do poprawianie dokładności pomiarów w różnych dziedzinach. Umożliwia to wykonywanie pomiaru tanim (małym, szybkim) miernikiem (czujnikiem, sensorem) o stosunkowo dużym błędzie, a za pomocą odpowiednich algorytmów poprawianie jego dokładności. To dość uproszczony opis tego czym się zajmuję ale chyba wystarczający w tej historii.
Gdy pod koniec roku 2015 zacząłem typować na WII, a moja "dokładność pomiaru" okazała się poniżej średniej zacząłem
myśleć nad tym jak ją poprawić, jak wykorzystać to co rzeczywiście potrafię.
Każdy z projektów, w których brałem udział, zaczynał się zawsze od zbierania jak największej liczby wyników pomiarów uzyskanych zarówno tym słabym miernikiem jak i bardzo dokładnym aby znać wynik "prawdziwy". W ten sposób powstała pierwsza "tabelka" bliska temu co możecie zobaczyć w "Podsumowaniu" czy "Wigometrze 2018", a ja w marcu 2016 r. zacząłem "zbierać" wszystkie typy na WII i rzeczywiste notowania WIG. Po pół roku można było zacząć analizować zebrane dane i wstępnie testować możliwe narzędzia poprawy "dokładności pomiaru" - po wielu próbach wybór padł na sieć neuronową do rozpoznawania wzorców i klasyfikacji - wiem trudny temat i chyba nie ma sensu żebym w tym miejscu wyjaśniał co to takiego. Pierwsze testy zacząłem chyba w ostatnim kwartale 2016 r.
Tu skończę "pilota" tej historii, bo więcej nikt nie da rady przeczytać.
p.s. jeżeli kogoś to zainteresowało to niech da łapką znać (przeciwnie oczywiście też).