Jeśli w MedAppie nie robicie wstępnego przetwarzania danych,
ale tylko nakładacie maski i wyświetlacie surowe dane diagnostyczne,
to nie ma się co dziwić, że oferujecie tak ubogie funkcje,
bo taka marna implementacja zajeżdża wam sprzęt
i brakuje zasobów na wdrożenie innych funkcji.
Duże dane diagnostyczne mogą "iść w gigabajty",
a HoloLensy mają ograniczoną rozdzielczość obrazu
i niewielką pamięć RAM, w której ten obraz renderują;
więc na pewno trzeba zacząć od skalowania danych,
żeby mieć ich tylko tyle, ile REALNIE DA SIĘ POKAZAĆ.
Urządzenia diagnotyczne produkują dane rastrowe:
wartości w punkach równomiernie wypełniających całą przestrzeń badania;
a zwykle zobaczyć można tylko powierzchnie elementów;
dlatego grafiki 3D nie robi się rastrowo, ale wektorowo:
definiując ją wierzchołkami, krawędziami i powierzchniami,
dlatego kwantowanie (rozróżnianie elementów),
segmentacja (ichpodział na kluczowe części)
i wytworzenie z nich modeli wektorowych
to nie tylko uzyskane lepsze wyniki dla lekarzy,
ale też znacząca poprawa wydajności aplikacji
i zasoby urządzeń zachowane dla innych funkcji...
Moim zdaniem na tym polega "cała sztuka"
w każdym produkcie takim jak CarnaLife Holo,
żeby z rastrowego pliku jak DICOM zrobić modele wektorowe,
bo po tym wszystko inne jest już łatwe i szybkie...
Nawet jeśli dane diagnostyczne przeskaluje się
do małej rozdzielczości 800x800x800 punktów,
to wciąż będzie ich 512 000 000 i w kolorze 2 GB,
a do tego też maski o takich samych wymiarach
i zwykle operacje na zbiorach danych takiej wielkości,
bo maski trzeba nakładać na każdym punkcie w przestrzeni działania
czy ma go włączać/przepuszczać czy też nie;
a większość tych punktów nic nie wnosi i ich nie widać...
Kilkanaście brył obrazujących np. narządy czy guzy
można dokładnie określić mając łącznie tylko 50 000 wierzchołków;
a nawet przy 10 x większych danych wierzchołka względem punktu
(wierzchołek musi mieć np. współrzędne i wartość/kolor
oraz są do niego referencje z krawędzi i powierzchni)
będzie około 1 000 x mniej danych i 10 000 x mniej operacji;
a dodatkowo mając sklasyfikowane oddzielne modele
można działać tylko na tych, na których się zechce
bez żadnych zbędnych akcji na pozostałych...
Jeśli "MedNav" też próbujecie robić rastrowo
i przy każdym ruchu igły do biopsji musicie
przerysowywać wszystkie jej punkty w nowym miejscu;
to nie ma się co dziwić, że to was przerasta i trwa...
Bez pojawienia się gogli AR o większej wydajności
raczej na pewno będzie to działać bardzo słabo...
Gdybyście robili grafikę 3D jak należy - wektorowo,
to bez problemu byście mogli płynnie animować
każdy ząbek wirującej piły tarczowej do cięcia kości
i jednocześnie inne narzędzia, których chirurdzy używają...
To są podstawowe zagadnienia w prezentacji danych 3D,
które powinny być uwzględnione w projekcie dla każdej branży,
a nie jakieś super specjalistyczne możliwości,
których ktoś mogły nie znać i we wdrożeniu pominąć...
Dla lekarza może wystarczyć tyle, że widać przydatny efekt,
ale dla producenta i sprzedawcy oprogramowania med-tech
powinno być ważne jak to jest zrobione i czy da się rozwijać,
bo rozwijać trzeba, żeby wyprzedzać konkurencję...
Widać, że w MedAppie pracują np. inżynierowie bio-medyczni,
którzy jakoś tam rozumieją niektóre potrzeby lekarzy
i coś tam jako-tako potrafią też zaprogramować;
ale brakuje specjalistów inżynierii oprogramowania,
którzy biorąc pod uwagę złożoność obliczeniową i wydajność
potrafiliby wdrożyć lepszą efektywność i więcej funkcji...
Wydajny komputer z mocnym GPU jest potrzebny
tak samo w połączeniu z goglami AR i z monitorem,
ale to między tymi urządzeniami wyjściowymi jest różnica cen.
Nawet tanie monitory oferują lepszą jakość niż HoloLens 2
(którego zaletami są zupełnie inne funkcje niż tylko obraz),
nawet przeciętny smartfon ma np. wyższą rozdzielczość;
więc pytanie dla jakichś korzyści warto wybrać gogle,
skoro i jakość jest gorsza i cena urządzenia wyższa?
Albo korzysta się z EFEKTÓW ROZSZERZONEJ RZECZYWISTOŚCI
jakim jest integracja z elementem celu w rzeczywistości
albo bez wątpienia szkoda pieniędzy na marne narzędzie;
bo inny program ze zwykłym monitorem dokładnie tak samo
może pokazać obok obraz i to widoczny dla całego zespołu.
Ja rozumiem, że trzeba udzielać wsparcia technicznego użytkownikom,
na tym forum pytałem już o to wiele razy, a problem zupełnie jest inny:
Dla grupy MedApp w różnym wymiarze pracuje 30 osób w 5 spółkach,
w tym zarząd, managerowie, deweloperzy, marketing, sprzedaż i support,
więc kto, kiedy i ilu klientom może udzielać pomocy? 1 osoba, 3 czy 5?
Nie chodzi tu o telefon z pytaniem i wyjaśnienia w kilka minut,
ale fizyczny wyjazd pracownika do asystowania w operacji,
więc zależnie od przypadku nawet cały dzień lub więcej...
Jeśli nawet współpracujący szpital potrzebuje wsparcia
po ponad pół roku korzystania z CarnaLife Holo,
to MedApp realnie nie ma kim obsługiwać klientów,
dlatego nie mogą sprzedawać więcej!
W MedAppie myśleli, że wpadli na "genialny pomysł",
że ich "specjaliści" tu odpowiedzą i "zabłysną",
a pokazali jak słabe mają przygotowanie techniczne
i jak bardzo źle wdrożony jest ich "proof of concept"...
Ja spodziewałem się czegoś lepszego!
Każdy branżowy inwestor przed kupnem robiąc audyt zobaczy i oceni,
że produkty MedAppu są byle jak napisane i nie da się ich rozwijać,
dlatego nie ma żadnego sensu inwestowanie w to coś,
co tak czy inaczej trzeba będzie lepiej tworzyć od zera!