Wraz z upowszechnianiem się komputerów osobistych i wzrastaniem ich mocy obliczeniowej, coraz popularniejsze staje się inwestowanie w papiery wartościowe z wykorzystaniem programów komputerowych. Programy te odciążają inwestora, dokonując żmudnych obliczeń, które niegdyś pochłaniały sporo czasu analitykom giełdowym i pozwalają skupić się na ocenie atrakcyjności poszczególnych walorów na podstawie różnorodnych kryteriów. W przypadku analizy technicznej, programy te kreślą wykresy kursów i wskaźników oraz informują o pojawiających się sygnałach. Programy wspomagające inwestowanie stają się coraz bardziej złożone, w miarę jak więcej i więcej zadań jest przez nie przejmowanych. Ideałem byłoby, gdyby program był w stanie porównać wszystkie papiery dostępne na rynku i, na podstawie zdefiniowanych wcześniej reguł, zarekomendować zakup najlepszych, a kiedy nadejdzie odpowiedni czas, zasygnalizować zamknięcie pozycji.
Jednymi z najważniejszych zalet komputerowego doradcy inwestycyjnego są metodyczność i stałość. Jest to o tyle ważne, iż wśród naczelnych zasad pomyślnego inwestowania znajduje się konsekwencja w reagowaniu na pojawiające się sygnały. Tymczasem, jak podaje N.R. Wayne [N.R. Wayne; Disciplined Investing, Part 1 & 2; Heine Management Group; Investment Research; 1995; http://www.thegroup.net/invest/wayne4.htm, http://www.thegroup.net/invest/wayne4.htm], wielu inwestorów, nawet jeżeli stosuje się do sygnałów kupna, często bagatelizuje sygnały sprzedaży (efekt przyzwyczajenia się do zajętych pozycji i niechęć do wychodzenia z rosnących papierów), przez co wpadają oni w pułapkę bessy. Jego zdaniem, rygorystyczne stosowanie się do pojawiających się sygnałów sprzedaży, z dużym prawdopodobieństwem pozwoliłoby osiągać wyższe zyski niż „większość inwestorów”. Zastosowanie komputera we wspomaganiu decyzji inwestycyjnych pozwala usunąć czynnik subiektywizmu w ocenie sytuacji rynkowej oraz bezwzględnie egzekwować pojawiające się sygnały. Powinno to zatem poprawić efektywność inwestycji.
Komputer daje także możliwość testowania tworzonych systemów i ich ciągłej optymalizacji.
Zdecydowanie najlepiej poddają się komputerowemu wspomaganiu ilościowa analiza techniczna oraz analiza portfelowa. Metody stosowane w tych podejściach wydają się na tyle jednoznacznie określone, że nie powinno być problemów z budowaniem automatycznych systemów inwestycyjnych opartych na nich. Jak się jednak okazuje, w obu przypadkach możemy natrafić na:
- problemy interpretacyjne,
- problemy mocy obliczeniowej,
- problemy złożoności.
Istota tych problemów zostanie omówiona na podstawie ilościowej analizy technicznej, która jest przedmiotem niniejszej pracy. Analogiczne problemy można jednak napotkać w przypadku analizy portfelowej.
Problem pierwszy, polega na niejednoznaczności zasad generowania sygnałów przez wskaźniki techniczne i konstrukcji samych wskaźników. O ile podstawowe zasady są zwykle jednoznaczne, podczas użytkowania wskaźników, przez ostatnie kilkadziesiąt lat, dodawane były nowe reguły i formuły. Problem ten w teorii nie powinien sprawiać większych kłopotów, można przecież próbować przetestować wszystkie istniejące zbiory reguł i warianty formuł, jednak w praktyce natrafiamy na problem ograniczeń mocy obliczeniowej i problem złożoności.
Okazuje się także, że trudno jest wskazać te parametry, które mają największy wpływ na wysokość zwrotu, a związki pomiędzy wartością parametru a zwrotem nie dają się łatwo przedstawić zależnością funkcyjną.
Problem mocy obliczeniowej sprowadza się do trudności w przetestowaniu wszelkich „rozsądnych” parametrów wskaźników w ograniczonym czasie. Przestrzeń poszukiwań można zawęzić przeczesując ją skokowo, jednak potem i tak czeka nas żmudne testowanie wszystkich kombinacji parametrów z wybranego zbioru, gdyż wydaje się, że zwrot nie wykazuje wyraźnych zależności funkcyjnych od któregokolwiek parametru jakiegokolwiek wskaźnika. A testowanie to może trwać bardzo długo. Przedstawiona w pracy optymalizacja krocząca jednej spółki, przeprowadzona dla średniej ruchomej, RSI, ROC i W-W, trwa na komputerze Intel Celeron 600MHz około 5 godzin. Zakładając nawet, że algorytmy da się przyspieszyć o 50%, obliczenia tylko dla jednej spółki będą nadal trwać około trzech godzin. A optymalizacja krocząca MACD, z wykorzystaniem systemu MAG, zajmowała ponad 8 godzin.
Problem ten jeszcze dosadniej przedstawia się w opisie systemu Asher [Informacje o programie Asher; http://www.asher.waw.pl/], gdzie czas potrzebny na optymalizację samego wskaźnika RSI, przy 100 różnych okresach średniej, 10 typach średniej, 10 przesunięciach w czasie, 100 wartościach przesunięcia stałego i 60 wartościach odchylenia standardowego szacuje się na 25 000 godzin, czyli 3 lata! Jako rozwiązanie proponuje się tamże zastosowanie algorytmów genetycznych, badających poprawę wskaźnika przy zmianie jednego parametru i tworzących na tej podstawie kolejne warianty wskaźnika. Autorzy zapewniają o skuteczności takiego podejścia, jednak w opublikowanych przez nich materiałach nie można znaleźć wystarczających danych źródłowych ani wyników testów.
Problem mocy obliczeniowej będzie zmniejszany przez postępy w budowaniu coraz mocniejszych komputerów oraz zawężanie przestrzeni parametrów, poprzez gromadzenie coraz większej ilości danych z dokonywanych optymalizacji. Potencjalnych możliwości parametrów i ich kombinacji jest jednak ogromnie dużo. Ciągle także powstają nowe wskaźniki i modyfikowane są reguł dotyczące starszych. Pole do poszukiwań jest więc bardzo rozległe.
Problem złożoności objawia się we wspomnianym braku zależności funkcyjnych pomiędzy zwrotem a parametrami wskaźnika oraz gwałtownymi zmianami zwrotu przy niewielkich zmianach parametrów. W sumie, prowadzi to do konieczności testowania całej przestrzeni parametrów w celu znalezienia zestawu optymalnego oraz objawia się w trudnościach w przenoszeniu zoptymalizowanego zestawu parametrów w przyszłość. Pierwszy kłopot dałby się przezwyciężyć, gdyby nie występujący równocześnie problem mocy obliczeniowej, natomiast drugi podważa sens optymalizacji wskaźników technicznych.
Jak wspomniałem wcześniej, podobnych problemów można się zapewne spodziewać w przypadku analizy portfelowej. Co prawda ograniczony zakres tej pracy wykluczał przeprowadzenie testów na modelach portfelowych, jednak w literaturze można spotkać przesłanki świadczące za takim twierdzeniem. W książce P. L. Bersteina [P.L. Bernstein; Przeciw Bogom. Niezwykłe dzieje ryzyka; WIG Press; Warszawa 1997], znaleźć można dość poważne zastrzeżenia co do podstaw modelu Markowitza budowania portfeli papierów wartościowych. Bernstein sugeruje, że rozkład zwrotu na rynku papierów wartościowych nie odpowiada rozkładowi normalnemu, co ogranicza możliwość zastosowania odchylenia standardowego jako miary ryzyka a równocześnie istotnego parametru portfeli. W literaturze brakuje także testów przenoszenia portfeli w przyszłość, a równocześnie praktyka wskazuje na zadziwiająco niską skuteczność profesjonalnych inwestorów posługujących się analizą portfelową i silne uzależnienie osiąganych wyników od lokalnych zaburzeń oraz dziwną nieczułość na konstrukcję samych portfeli. Innymi słowy, portfel utworzony na danych historycznych stosunkowo często nie spełnia swojego zadania, to znaczy kontrolowania ryzyka przy zakładanym poziomie zwrotu i odwrotnie, nadmiernie poddając się aktualnym zawirowaniom. Można wręcz powiedzieć, że zaraz po zbudowaniu portfela, rynek zapomina o swej przeszłości, przez co dawne założenia stają się nieaktualne.
P. L. Bernstein pokłada nadzieję dla przyszłości inwestowania w narzędziach opartych na teorii złożoności (chaosu), jednak prace w tej dziedzinie posuwają się bardzo wolno, a pewne przesłanki teoretyczne [J. Horgan; Koniec nauki, czyli o granicach wiedzy u schyłku ery naukowej; Prószyński i S-ka; W-wa 1999] wskazują, że niekoniecznie muszą zakończyć się one opracowaniem przełomowych czy nawet użytecznych rozwiązań. Z pewnością podniosą one jednak poprzeczkę dla mocy obliczeniowej niezbędnej do podjęcia próby znalezienia odpowiedzi na podstawowe pytania inwestora, kiedy i w co inwestować.
Problemy automatycznego inwestowania są związane z wyzwaniami, które pojawiają się w procesach inwestycyjnych z wykorzystaniem algorytmów, robotów inwestycyjnych czy platform automatycznego handlu. Chociaż automatyczne inwestowanie, dzięki swojej szybkości i efektywności, zyskuje na popularności, to istnieje kilka istotnych problemów, które mogą wpłynąć na jego skuteczność i bezpieczeństwo.
1. Problemy z algorytmami i modelami inwestycyjnymi – Kluczową kwestią w automatycznym inwestowaniu jest jakość algorytmów i modeli matematycznych, które sterują decyzjami inwestycyjnymi. Zbyt proste lub niedostatecznie przetestowane algorytmy mogą prowadzić do błędów w ocenie ryzyka czy niewłaściwego doboru aktywów. Modele mogą bazować na przestarzałych danych lub ignorować zmieniające się warunki rynkowe, co może prowadzić do poważnych strat.
2. Przeciążenie danych i zmienność rynku – Automatyczne systemy inwestycyjne działają na podstawie analizy dużych ilości danych, jednak w obliczu zmienności rynku mogą napotkać trudności. Wysoka zmienność na rynkach finansowych, związana z nagłymi wydarzeniami, zmianami politycznymi lub kryzysami ekonomicznymi, może powodować, że systemy inwestycyjne nie będą w stanie odpowiednio zareagować na te zmiany w czasie rzeczywistym, prowadząc do dużych strat.
3. Brak elastyczności i adaptacyjności – Jednym z głównych problemów automatycznych systemów inwestycyjnych jest ich ograniczona zdolność do adaptacji do nagłych zmian rynkowych, które wymagają elastycznego podejścia. Inwestowanie oparte na sztywnych zasadach i danych historycznych może nie uwzględniać bieżących trendów czy nieprzewidywalnych wypadków, takich jak katastrofy naturalne, zmiany w polityce monetarnej czy nieoczekiwane zmiany w gospodarce.
4. Zjawisko „czarnych łabędzi” – Automatyczne systemy inwestycyjne mogą mieć trudności w przewidywaniu tak zwanych „czarnych łabędzi”, czyli zdarzeń rzadkich i trudnych do przewidzenia, które mogą znacząco wpłynąć na rynek. Systemy te są zazwyczaj zaprojektowane do optymalizacji wyników na podstawie danych historycznych, a ich skuteczność w obliczu zdarzeń, które nie miały miejsca w przeszłości, jest ograniczona.
5. Brak odpowiednich mechanizmów nadzoru – Choć automatyczne inwestowanie jest zazwyczaj zaprojektowane w taki sposób, aby zminimalizować ryzyko błędów ludzkich, nadal istnieje ryzyko, że z powodu błędów w oprogramowaniu lub problemów z interfejsami użytkownika, transakcje mogą zostać błędnie wykonane. Brak odpowiednich mechanizmów nadzoru, zarówno ze strony systemów kontrolujących algorytmy, jak i ze strony regulatorów rynku, może prowadzić do poważnych strat finansowych.
6. Problemy z likwidnością i płynnością – Automatyczne systemy inwestycyjne, zwłaszcza te, które operują na dużych rynkach lub w przypadku dużych transakcji, mogą napotkać problemy z płynnością. Szybkie decyzje o zakupie lub sprzedaży aktywów mogą prowadzić do zakłóceń na rynku lub braków płynności, co skutkuje niemożnością realizacji zleceń po oczekiwanej cenie, a w konsekwencji może prowadzić do strat.
7. Ryzyko związane z cyberbezpieczeństwem – Automatyczne inwestowanie wiąże się również z ryzykiem cyberataków. Hakerzy mogą próbować przejąć kontrolę nad systemami inwestycyjnymi lub wykorzystywać je do przeprowadzania oszustw finansowych, co może prowadzić do poważnych strat. Należy zatem zadbać o odpowiednie zabezpieczenia, aby systemy automatycznego inwestowania były odporne na ataki.
8. Etyka i przejrzystość – Automatyczne systemy inwestycyjne mogą rodzić pytania o etykę i przejrzystość procesów inwestycyjnych. Często nie jest jasne, na jakiej podstawie algorytmy podejmują decyzje, co może budzić wątpliwości co do ich sprawiedliwości i uczciwości. Ponadto, brak zrozumienia sposobu działania systemów może prowadzić do nieświadomego podejmowania decyzji, które nie są w pełni świadome ryzyka.
Chociaż automatyczne inwestowanie oferuje wiele korzyści, takich jak szybkość i redukcja błędów ludzkich, wiąże się także z szeregiem problemów i ryzyk, które wymagają odpowiedniego nadzoru i adaptacji do zmieniających się warunków rynkowych.