Blog

Postrzeganie losowości a zachowania inwestorów giełdowych

Autor: Bartłomiej Dzik, Piotr Zielonka
Dodatkowe informacje: Tekst niniejszy ukazał się w miesięczniku "nasz Rynek Kapitałowy" nr 162, 06 czerwiec 2004

Zdefiniowanie losowości nie jest rzeczą prostą. Prawie wszystkie definicje, zarówno słownikowe, jak i naukowe, mają charakter negatywny, tzn. losowy dla nich to tyle co nie-nielosowy, a więc nieuporządkowany, nieprzewidywalny, nieregularny. W teorii informacji sekwencję liczb definiuje się jako losową, jeśli nie można jej skompresować (Cover i Thomas, 1991).

Czym jest losowość?

Kompresja nie jest możliwa, gdy poszczególne liczby sekwencji pojawiają się mniej więcej z równą częstotliwością (co maksymalizuje entropię rozkładu) i nie można znaleźć żadnej reguły porządkującej (w rodzaju: „po liczbie 22 często wystąpi sekwencja 78, 03, 33″). Warto zauważyć, że zgodnie z powyższą definicją sekwencja liczb losowych pochodzących z rozkładu innego niż równomierny (np. normalnego) jest „mniej losowa” niż sekwencja liczb losowych z rozkładu równomiernego. Przykładem sekwencji nielosowej jest choćby niniejszy tekst, dlatego daje się on całkiem dobrze skompresować do mniej niż połowy swojego pierwotnego rozmiaru.

Wspomniany wyżej brak reguł porządkujących sekwencję losową to w terminologii rachunku prawdopodobieństwa nic innego jak wymóg, by była ona wygenerowana przez niezależne zdarzenia losowe. Dla danego rozkładu prawdopodobieństwa, tylko niezależność zapewnia nas, że żadne informacje o wcześniejszych liczbach sekwencji nie pomogą nam przewidzieć wartości następnej liczby. Na podstawie tak zdefiniowanej losowości, można stworzyć prostą definicję idealnej gry losowej. Wynikami tej gry są niezależne zdarzenia losowe, a gracz może obstawiać, jaki będzie wynik zdarzenia – przy czym cena udziału w grze jest stała. Relacje wypłat za trafne wytypowanie określonych zdarzeń są odwrotnie proporcjonalne do prawdopodobieństwa wystąpienia tych zdarzeń – np. wypłata za trafne odgadnięcie, że wypadnie szóstka w rzucie kością jest trzykrotnie większa niż wypłata, za trafne wytypowanie, że wypadnie liczba parzysta. Nie istnieje strategia, która wpływa na wartość oczekiwaną wygranej w takiej grze. Zauważmy, że w powyższej definicji nie ma mowy o tym, że wartość oczekiwana gry ma być dodatnia, ujemna czy zerowa.

Warto przy tej okazji wspomnieć o używanych w komputerach tzw. generatorach liczb pseudolosowych (Robert i Casella, 1999: rozdz. 2). Najpopularniejsze z nich wykorzystują tzw. kongruencję liniową, tworząc cyklicznie jedną dużą permutację bez powtórzeń liczb naturalnych od 0 do n – 1 (gdzie n jest zwykle liczbą postaci 2x). Użytkownik na ogół korzysta tylko z małego fragmentu tej sekwencji odpowiednio przeskalowanego (np. do zakresu liczb od zera do 99), który faktycznie wygląda na serię wyników niezależnych zdarzeń losowych z rozkładu równomiernego. Generator jest algorytmem ściśle deterministycznym, który lepiej lub gorzej usiłuje stworzyć sekwencje wyglądające na losowe. Trzeba o tym pamiętać, gdy uruchamiamy zaawansowane symulacje – im więcej liczb losowych potrzebujemy, tym mocniejszego generatora powinniśmy używać. Generator używany w popularnym arkuszu kalkulacyjnym tworzy sekwencję liczb pseudolosowych o długości 16.777.216 (224), co może być niewystarczające do niektórych zastosowań. Dla porównania -automaty do gry w kasynie używają generatorów liczb pseudolosowych o długości sekwencji nawet ponad 2100.

Dlaczego losowość jest ważna?

Istnieją dwie fundamentalne kwestie o dużym znaczeniu analitycznym związane z losowością: generowanie liczb losowych i testowanie losowości, czyli rozpoznawanie, czy w posiadanych danych możemy odszukać jakąś prawidłowość.

Generowanie liczb losowych jest ważne choćby na potrzeby pozyskiwania reprezentatywnych prób z populacji. Jeszcze ważniejsze są umiejętności trafnego odróżnienia danych o charakterze losowym od danych, gdzie występują pewne prawidłowości. Możliwe jest tutaj popełnienie dwóch rodzajów błędów – uznanie za losowe danych wygenerowanych przez proces nie do końca losowy, oraz przekonanie o występowaniu prawidłowości w danych powstałych jako rezultat procesu całkowicie losowego. Nasze wnioskowania mają tu tylko charakter probabilistyczny (podobnie jak testowanie hipotez statystycznych), niemniej ich praktyczne znaczenie jest olbrzymie.

W ekonomii zdecydowanie więcej miejsca poświęcono kwestii wykrywania prawidłowości w posiadanych danych – taki jest wszak cel ekonometrii. Wykrycie prawidłowości pozwala przewidywać rozwój sytuacji i podejmować trafniejsze decyzje. Wynika to z wrodzonej ludziom tendencji do porządkowania rzeczywistości, tendencji, która czasem może prowadzić do dopatrywania się rzekomych ukrytych reguł tam, gdzie ich nie ma. Przypatrzmy się sekwencji rzutów monet?. jeśli moneta jest dobrze wyważona, to orzeł (O) i reszka (R) mają równe prawdopodobieństwa – po 50%.

Krótki przykład dla Czytelnika. Powiedzmy, że ktoś proponuje Ci prostą grę – typujesz czy w następnym rzucie wypadnie orzeł czy reszka – za każde trafne typowanie zapłaci Ci złotówkę, a gdy nie zgadniesz – musisz oddać złotówkę. Rzucacie monetą np. 100 razy. wartość oczekiwana gry wynosi zero. Wiemy też z tablic rozkładu dwumianowego, że takie wyniki końcowe jak zysk powyżej 30 złotych lub strata większa niż 30 złotych są mało prawdopodobne (ich łączne prawdopodobieństwo plasuje się poniżej 1%). Powiedzmy, że osoba proponująca grę pozwoli Ci obejrzeć 1000 rzutów monetą, zanim podejmiesz decyzję czy zagrać – dzięki temu ocenisz, czy wybrana moneta jest „uczciwa”. W sytuacji, gdy moneta nie generuje niezależnych zdarzeń losowych o równych prawdopodobieństwach, istnieje strategia, która pozwoli osiągnąć dodatnią wartość oczekiwaną w takiej grze. Jednym z przykładów jest sytuacja, gdy liczba orłów znacząco odbiega od liczby reszek. Na przykład w 100 rzutach symetryczną monetą różnica w liczbie orłów i reszek większa niż 20, zdarza się rzadziej niż raz na 20 sekwencji. Gdy mamy podejrzenia, że moneta jest ąle wyważona, powinniśmy każdorazowo typować rezultat zaobserwowany częściej – co zapewni dodatnią wartość oczekiwaną. Gra taka różni się od idealnej gry losowej tym, że wypłaty nie są odwrotnie proporcjonalne do prawdopodobieństw zdarzeń, ponieważ wysokość wypłat ustalona jest przy założeniu symetryczności monety. Same zdarzenia są natomiast niezależne, a proces jest losowy.

Znacznie ciekawsza jest sytuacja, gdy frekwencje orłów i reszek nie wykazują znaczących odchyleń od 50%. Przyjrzyjmy się czterem sekwencjom z Rys. 1, gdzie czarne i białe kropki odzwierciedlają odpowiednio orły i reszki w 100 rzutach monet?. W żadnej z tych sekwencji proporcje orłów do reszek nie sugerują asymetryczności monety, niemniej sekwencje znacznie się różnią liczbą długich serii kolejnych orłów i reszek. Liczba repetycji, zdefiniowanych jako powtórzenia OO lub RR w sekwencji n rzutów symetryczną monetą ma rozkład dwumianowy z n − 1 prób Bernoulli’ego. Niemniej ludzka percepcja jest tutaj niedoskonała. Badania Wagenaara (1988) wskazują, że ludzie bardziej skłonni są uważać sekwencję w rodzaju A i D za wygenerowane uczciwą monetą, niż sekwencję B i C. W rzeczywistości tylko sekwencja C dość dobrze przybliża 100 niezależnych prób w schemacie Bernoulli’ego (w pozostałych sekwencjach liczba repetycji znacząco odstaje od oczekiwanej z rozkładu dwumianowego, wynoszącej postrz11).

A
□■□■□□■■□■□■□■■■■□■■□■□□□□■□□■□■□■□■■□■□□■□□□□■□■■
□□□■□■□■□□■■■□■□□□■■□■□■■■□□□□■□□■□■□■■□■□■□■■□■□■

B
□□■□□□□□■■■■□□■■■■■■■□■■■□□□□□□□□□□■■□□□■■□□■□■■□□
□□□■■■■■■■■■■■■□□□□■■□□□□□□■■■■■□□■□□□□■■□□□□■■■■■

C
■■■■■■□■■■■■□□□■□■■■□■■□□□□□■■□■□■■■□■■■□■□■□■■□□□
■■□■□□■□■□□□□□□□■□□■□□□□□■■□■■□□■□■■□■□□□■□□■□□□□□

D
■□■□■□□■□■■■□■□□■■□□□■□■□■■□□□□□■□□□□■□□■■□■■■□□■□
□■□□□■■■□□□■□■□■■□■□□■□■□■■□□□■□■■□■□□□■□■■□■□■■■■

Rys. 1 Cztery sekwencje, gdzie czarne i białe kropki odzwierciedlają odpowiednio orły i reszki w 100 rzutach symetryczną monetą.

Pierwszy wynik w każdej sekwencji to O lub R z równymi prawdopodobieństwami. Do stworzenia sekwencji A i B użyto „monety z pamięcią” – w pierwszym przypadku moneta „lubi” zmienność i prawdopodobieństwo repetycji wyniku wynosi 0,3 (czyli P(On|On-1)=0,3 i analogicznie dla R), w przypadku B moneta jest „konserwatywna” – prawdopodobieństwo repetycji wynosi 0,7. Optymalna strategia w grach A (obstawianie wyniku innego niż ten, który ostatnio wypadł) lub B (obstawianie tego, co ostatnio wypadło) prowadzi do wartości oczekiwanej 39 zł 60 groszy w każdym przypadku. Natomiast prawdopodobieństwo osiągnięcia takiego zysku w idealnej grze losowej to mniej niż 1 do 10 tysięcy. Widać więc jak ważne jest trafne rozpoznanie, czy mamy do czynienia z procesem losowym.

Sekwencja D jest stworzona przez nieco bardziej skomplikowany proces i również wygląda na losową. Tutaj moneta „zapamiętuje” długość ostatniej serii orłów lub reszek. Dla takiej monety prawdopodobieństwo repetycji (OO lub RR) jest malejącą funkcją długości aktualnej serii zdarzeń tego samego typu (same orły lub same reszki). W procesie D przyjęto prawdopodobieństwo wystąpienia repetycji jako hiperboliczną funkcję liczby odpowiadającej długości bieżącej serii powtórzeń (wzór 1). jeśli w danym momencie nie występuje powtórzenie, czyli ostatnie dwa rzuty to OR lub RO, to prawdopodobieństwo to wynosi 0,5. Jak można zauważyć, w przeciwieństwie do trzech pozostałych sekwencji, D nie jest procesem Markowa (czyli procesem losowym, w którym rozkład prawdopodobieństwa następnego wyniku zależy tylko od ostatnio wygenerowanego wyniku)

LRep= 0,1,2,3…

Przykładowo: jeśli mamy do czynienia z sekwencją, w której pięć ostatnich rzutów to ORRRR, wówczas prawdopodobieństwo, że po serii czterech reszek, czyli trzech powtórzeń, wypadnie kolejna reszka wynosi 0,25. Algorytm ten to nic innego, jak implementacja błędu poznawczego zwanego złudzeniem gracza (gambler’s fallacy) – szeroko podzielanego przez nieprofesjonalistów przekonania, że wraz ze zwiększaniem się długości serii zdarzeń jednego typu rośnie prawdopodobieństwo wystąpienia zdarzenia przeciwnego. Na tym złudzeniu bazują tzw. systemy obstawiania w ruletce (np. system martingale), wciąż popularne, choć całkowicie nieskuteczne.

Percepcja losowości

Kiedy poproszono przypadkowe osoby, aby wymyśliły sekwencję orłów i reszek w ciągu rzutów symetryczną monetą, okazało się że ludzie mają trudności z zasymulowaniem losowości. Ich wyobrażenia o tym jak powinna wyglądać seria rzutów monetą były dalekie od rzeczywistości. Pojawiały się regularności. Bardzo trudno jest nauczyć ludzi (i zwierzęta) kreowania losowych sekwencji. (Vyse, 1997) Psychologowie poznawczy od kilkudziesięciu lat zajmują się problemem tzw. wnioskowania probabilistycznego (probabilistic reasoning). Wyodrębniono szereg niedoskonałych heurystyk i zniekształceń (biases) występujących przy wnioskowaniu, zarówno u zwykłych ludzi, jak i dobrze wykształconych profesjonalistów (przegląd w: Kahneman i Tversky, 1982). Najpoważniejsze błędy dotyczą wnioskowania bayesowskiego (operowania na prawdopodobieństwach warunkowych), składania prawdopodobieństw i właśnie percepcji losowości. dość prostym doświadczeniem, pokazującym jak niepoprawne mogą być tego typu wnioskowania jest próba odpowiedzi na pytanie: jakie jest prawdopodobieństwo, że w pokoju gdzie przebywa 23 osoby, co najmniej dwie osoby obchodzą urodziny w tym samym dniu? Dużym zaskoczeniem, nawet dla osób obeznanych z rachunkiem prawdopodobieństwa jest fakt, że wynosi ono nieco powyżej 0,5, co widać we wzorze 2.

gdzie to wariacja bez powtórzeń,
gdzie to wariacja z powtórzeniami,
n – ilości dni w roku,
k– ilość osób w pokoju.

Nasze, ludzkie wyobrażenia na temat losowości znacznie odbiegają od rzeczywistego przebiegu procesów losowych. Powyżej omawiany przykład z sekwencjami binarnymi pokazuje, że ludzie oczekują po procesie losowym większej zmienności, niż wynika to z rozkładu losowego. Ludzie oczekują też reprezentatywności (np. mniej więcej połowy reszek w sekwencji rzutów monetą) nawet w bardzo krótkich sekwencjach – co zostało nazwane prawem małych liczb (law of small numbers – por. Kahneman i Tversky, 1982), oraz powszechnie przejawiają opisane wyżej złudzenie gracza.

Zagadnieniem o dużym praktycznym znaczeniu, na którym można pokazać złudność naszych intuicji jest błądzenie przypadkowe. Najprostszym przykładem błądzenia losowego będzie opisana wcześniej gra, rozgrywana symetryczną monetą. błądzenie przypadkowe w tym wypadku to nic innego jak rejestr stanu naszego wyniku w kolejnych momentach gry – zmieniający się z każdą rundą o wartość +1 lub -1. Potoczna intuicja podpowiada, że w takiej grze prowadzenie powinno zmieniać się dość często – raz będziemy „na plusie”, raz „na minusie”. Nic bardziej błędnego. Sytuacja, gdy przez połowę czasu będziemy nad, a drugą połowę pod kreską jest najmniej prawdopodobna. Najbardziej prawdopodobnymi błądzeniami są takie, w których ścieżka będzie całkowicie nad, lub całkowicie pod osią OX. Dla 100 rzutów monetą prawdopodobieństwo każdej z tych sytuacji – ścieżka tylko nad lub pod osią OX – wynosi 7,96% (i jest, notabene, identyczne z prawdopodobieństwem uzyskania 50 sukcesów w stu próbach Bernoulliego dla p=0,5, czyli ).

Dla dużej liczby prób, prawdopodobieństwo, że będziemy prowadzili przez frakcję co najwyżej Z czasu gry ( ) przybliżone jest wzorem 3 – jest to tzw. pierwsze prawo arcusa sinusa (Epstein, 1995; Feller, 1966).

Można obliczyć, że prawdopodobieństwo, iż będziemy prowadzili tylko przez co najwyżej 10% czasu wynosi około 20,5% i, na zasadzie symetrii, identyczne jest prawdopodobieństwo, że będziemy prowadzili co najmniej 90% czasu gry. Rozkład arcusa sinusa jest antymodalny, wartość równa średniej – czyli 0,5 – jest najmniej prawdopodobna, a najbardziej prawdopodobne są wartości skrajne. Podobnie, średnia liczba powrotów do osi OX (nazwijmy je „remisami”) jest również znacznie mniejsza niż podpowiada nam intuicja. Dla sekwencji o długości 2n dana jest ona wzorem 4 (Epstein, 1995).

Średnia liczba remisów w trakcie gry nie jest proporcjonalna do liczby prób, ale do pierwiastka z tej liczby, co jest kolejnym wnioskiem trudnym do pogodzenia z intuicją. Dla stu prób wynosi około ośmiu, a dla miliona prób niecałe osiemset. Rysunek 2 stanowi obraz komputerowej symulacji rzutu symetryczna monetą. Wypadnięciu reszki przypisana jest wartość +1, natomiast wypadnięciu orła wartość -1. Jak widać przy 128 000 rzutów wykres tylko kilkanaście razy przeciął oś OX. Dla zwykłego człowieka błądzenie losowe zapewne powinno przypominać np. wykres sejsmografu. Fakt, że ścieżka błądzenia przypadkowego ma tendencję do długiego przebywania po jednej stronie osi OX może przyczyniać się u hazardzistów, a nawet personelu kasyn, do wiary we wpływ tajemniczego „szczęścia” (luck), albo też podejrzeń o nielosowy przebieg gry.




Rys. 2 Symulacja komputerowa 128 000 rzutów symetryczną monetą. Reszka daje wartość plus 1, natomiast orzeł: minus 1u rysunek 2

Błędne wyobrażenia na temat losowości pojawiają się już przy rozważaniu prostych sekwencji zerojedynkowych, jeszcze silniej obecne są przy postrzeganiu błądzenia przypadkowego, ale są chyba najsilniejsze, gdy w grę wchodzi losowe rozmieszczenie punktów w przestrzeni. Feller (1966) podaje przykład mieszkańców Londynu, którzy byli głęboko przekonani o tym, że w trakcie bombardowań podczas II Wojny Światowej, niektóre dzielnice miasta były atakowane wyraźnie częściej niż inne. Tymczasem podzielenie obszaru Londynu na kilkaset części o równej powierzchni i przeprowadzenie testu zgodności liczby zrzuconych bomb z rozkładem Poissona wykazało bardzo dobre dopasowanie do tego rozkładu (losowe rozrzucenie punktów w przestrzeni, jak zrzucanych bomb czy rodzynek w dobrze rozrobionym cieście powinno mieć rozkład Poissona).

Skupienia (klastery), będące naturalnym efektem procesu losowego, są często interpretowane jako przejaw braku losowości. Wyjaśnijmy to na przykładzie. Rysunek 3 przedstawia trzy z możliwych 1.947.792 (czyli ) zaznaczeń dokładnie 6 pól na planszy 6 na 6 pól. W przypadku A nie występuje żadne skupienie (dwa lub więcej pola stykające się bokami), przypadki B i C pokazują przykładowe skupienia wielkości 2 i 3 pól. Sporym zaskoczeniem może być to, że tylko w 18,9% procentach przypadków zaznaczone pola nie utworzą żadnego skupienia. Układy typu B (jedno skupienie dwuelementowe) stanowią 36,7% ogółu możliwych zaznaczeń, a układy typu C (jedno skupienie trzyelementowe) – 15,6% (to wynik zliczenia wszystkich skupienia we wszystkich kombinacjach przez komputer). Nawet tak zdawałoby się rzadkie zaznaczenia jak skupienia o wielkości czterech i więcej pól spotkamy nieco częściej niż w 5% przypadków wszystkich możliwych rozmieszczeń. Podobne obliczenia możemy przeprowadzić dla używanych obecnie kuponów Totolotka – w Dużym Lotku gracz wybiera 6 z 49 liczb, rozmieszczonych w sześciu rzędach po dziewięć liczb (ostatni rząd jest niepełny). spośród prawie 14 milionów możliwych kombinacji, tylko w niecałych 31% przypadków nie pojawi się żadne skupienie – co zapewne znacząco różni się od oszacowań graczy w LOTTO. Błędy w rozumieniu losowości u graczy w LOTTO powodują, nie populacja grających nie typuje liczb zgodnie z rozkładem losowym, co oznacza, że istnieją kombinację, dla których szansa podzielenia się główną wygraną jest mniejsza, czyli dające większą wartość oczekiwaną (Haigh, 1997).

Doskonałą ilustracją jak bardzo fałszywe są potoczne wyobrażenia o losowym rozmieszczeniu elementów w przestrzeni są badania R. Falk, zreferowane przez Bar-Hillel i Wagenaara (1991). Falk prosiła badanych, by na planszy 10 x 10 pokolorowali dokładnie połowę (50) pól w taki sposób, by wyglądało to na losowy rozrzut. Badani mieli wyraźną skłonność do tworzenia układów gdzie białe pola sąsiadowały z zamalowanymi. Dla tego typu tablicy można było policzyć statystykę alternacji, czyli ilości przypadków, gdy pole białe sąsiaduje z zamalowanym. Gdyby rozkład był losowy, średnie prawdopodobieństwo, że pole zamalowane sąsiaduje z nie zamalowanym wynosi 0,5, podczas gdy u badanych wynosiło 0,6. Odpowiada to 99 centylowi rozkładu tej zmiennej – czyli tylko skrajne 2% losowych wzorców pokolorowania odpowiadało wyobrażeniom ludzi o tym, jak wygląda rozkład losowy!

Ruchy cen akcji a zachowania inwestorów giełdowych

Czytelnikom zapewne znany jest permanentny spór wśród badaczy rynków finansowych na temat tego czy ruchy cen akcji wykazują cechy błądzenia przypadkowego, czy też mogą być do pewnego stopnia przewidywalne. Nie zamierzamy tutaj tego sporu rozstrzygać. Bez względu na to jak jest w rzeczywistości, inwestorzy giełdowi od niepamiętnych czasów starali się przewidzieć ruchy cen akcji i zawsze odczuwali to jako zadanie niemal karkołomne. Najbardziej znanym narzędziem służącym do przewidywania kursów akcji jest analiza wykresów, czyli analiza techniczna.

Analitycy techniczni dążą do uchwycenia znanych im z przeszłości formacji graficznych, aby następnie na ich podstawie przewidzieć przyszłe ruchy giełdowe. Analiza techniczna dysponuje całą gamą wskaźników oraz formacji graficznych. Do najbardziej popularnych formacji należą: trójkąty, kliny, głowa i ramiona, wachlarz, etc. (Murphy, 1999; Pring, 1998)

Popularną na całym świecie teorią związaną z analizą techniczną jest teoria fal Elliotta. Dla wyjaśnienia procesów występujących na giełdzie twórca tej metody założył, że rynek papierów wartościowych ulega ruchom zwyżkowym w postaci serii 5 podstawowych fal, a ruch spadkowy tworzy seria składająca się z 3 głównych fal. Koncepcja Elliotta zawiera jednak szereg dodatkowych uwarunkowań w rodzaju: trzecia podstawowa fala ruchu zwyżkowego nie może być krótsza niż fala pierwsza i piąta łącznie. Takie dodatkowe założenia, łącznie z obszernym zbiorem wyjątków od ogólnej teorii immunizują tę koncepcję, czyli uniemożliwiają jej obalenie w oparciu o dane empiryczne.

Różni analitycy techniczni na podstawie tych samych przesłanek mogą wyciągnąć odmienne wnioski odnośnie kondycji rynku czy spółki. Ponadto analiza techniczna ignoruje informacje fundamentalne (wskaźniki gospodarcze, dane dotyczące sytuacji finansowej spółek, etc.). Analityk techniczny może wiec prognozować kurs akcji i podejmować decyzje kupna lub sprzedaży akcji nie znając nawet nazwy firmy, nie mówiąc już o jej sytuacji finansowej. Już prace Harry’ego Robertsa (1959) z połowy dwudziestego stulecia poświęcone badaniu rozkładów stóp zwrotu podważały efektywność analizy technicznej. Roberts posłużył się szeregiem przypadkowych liczb. Skonstruował szereg, tak aby jego parametry były zgodne z parametrami szeregu rzeczywistych, tygodniowych stóp zwrotu akcji notowanych na giełdzie. Okazało się, że nawet dla wytrawnego obserwatora wykresy generowane przez komputer były uderzająco podobne do rzeczywistych wykresów cen akcji, włączając tworzenie się formacji uważanych przez analityków technicznych za najistotniejsze, takie jak wierzchołki w kształcie głowy i ramion. Roberts zasugerował, że wszystkie klasyczne formacje analizy technicznej można wygenerować sztucznie metodą losową . Tak więc problem polega nie na tym, że na wykresie cen akcji trudno jest odnaleźć formacje definiowane przez analizę techniczną, wręcz przeciwnie – zadanie to jest zbyt łatwe, formacje takie można odnaleźć wszędzie, także na wykresach przebiegów zupełnie losowych, absolutnie nie związanych z rynkami finansowymi.

Mocniejszą grupą testów sprawdzających skuteczność analizy technicznej były testy tzw. reguł filtrów. Reguły filtrów według analityków technicznych mają wskazywać na pewne, specyficzne poziomy cen akcji, przy których należałoby dokonywać transakcji zakupu oraz inne poziomy cen, przy których należy sprzedawać. Test Famy & Blume’a (1966) wykazał nieopłacalność tego typu strategii nawet przy minimalnych kosztach transakcyjnych.

Tak więc, skuteczność analizy technicznej jest niewielka lub wręcz całkowicie wątpliwa. Rodzi się więc pytanie, dlaczego mimo wszystko cieszy się ona sporą popularnością. Próbę odpowiedzi dostarcza pewne badanie z psychologii poznawczej (Zielonka, 2002). Eksperyment polegał na sporządzeniu listy wybranych wskaźników analizy technicznej, ale także kilkunastu innych wskaźników, wymyślonych przez autora, przypominających brzmieniem wskaźniki analizy technicznej, np.: „rosnący indeks WIG pokonuje szczyt związany z efektem stycznia” lub „spadającemu indeksowi WIG towarzyszy poważny kryzys rządowy”. Nowe wskaźniki dobrano tak, by odzwierciedlały pułapki psychologiczne zasygnalizowane w poprzednim rozdziale „Percepcja losowości”. Okazało się, że analitycy finansowi, pytani o możliwość przewidywania ruchów cen akcji w oparciu o poszczególne wskaźniki z przygotowanej przez eksperymentatora listy, przypisywali dużą moc predyktywną nie tylko standardowym sygnałom analizy technicznej, ale również sztucznym sygnałom, brzmiącym jak analiza techniczna. Warunkiem, jaki musiał być spełniony, aby analityk uznał dany sygnał jako użyteczny do przewidywania ruchów giełdowych było odzwierciedlenie przez ten wskaźnik jednej z pułapek psychologicznych (takich jak: pułapka gracza, czy nierespektowanie prawa regresji do średniej).

Podsumowanie

„Podobnie jak natura nie znosi próżni, tak człowiek nie znosi przypadkowości” (Vyse, S. 1997, str. 99) Jak z kolei podkreśla M.G. Kendall, „wydaje się, iż ludzkości zajęło aż kilka stuleci, aby przyzwyczaić się do świata, w którym niektóre zdarzenia pojawiają się bez wyraźnej przyczyny albo kiedy cała przestrzeń zdarzeń ma swe przyczyny tak odległe, że w praktyce może być opisywana za pomocą modelu probabilistycznego. Ale, co ważne, nawet dziś ludzkość jako całość nie pogodziła się z istnieniem przypadkowości. Człowiek w dzieciństwie boi się ciemności, a przecież niewiele jest ciemniejszych perspektyw niż wszechświat rządzony wyłącznie prawami mechanistycznymi oraz czystym przypadkiem….” (Kendall, 1956, str. 32)

Jakie są następstwa naszej naturalnej niechęci do zdarzeń przypadkowych, niechęci popartej błędnymi intuicjami w zakresie rozpoznawania rzeczywistości probabilistycznych? Otóż z jednej strony niechęć ta prowadzi do negatywnych konsekwencji, takich jak wszelkiego rodzaju antynaukowe aktywności człowieka, czyli na przykład myślenie magiczne, czy złudzenie kontroli. Te z kolei wiodą do powstania konkretnych, czasem nawet mocno sformalizowanych dziedzin pseudonaukowych: jasnowidztwo, astrologia, homeopatia, analiza techniczna, czy frenologia.

Z drugiej jednak strony warto sobie uświadomić, że cały niemal postęp naukowy możliwy był dzięki tejże samej niechęci ludzi do przypadkowości. Usilna potrzeba wyjaśnienia całego otaczającego nas świata w kategoriach przyczynowo-skutkowych dała w efekcie spektakularny postęp nauki. Być może zachowania inwestorów giełdowych w obliczu losowości stóp zwrotu są w pewnym sensie odzwierciedleniem powyższych, ogólniejszych problemów związanych z percepcją przypadkowości i wyrażają się zarówno w nieracjonalnych zachowaniach takich jak pułapka gracza, czy nierespektowanie prawa regresji do średniej, jak również w tworzeniu poważnych teorii zarządzania ryzykiem, uwzględniających nieprzewidywalność rynków finansowych.

LITERATURA

  • Bar-Hillel M., Wagenaar. W.A. (1991). Perception of Randomness, „Advances in Applied Mathematics”, Vol. 12, ss. 428-454,
  • Cover T.M., Thomas J.A. (1991). Elements of Information Theory, New York, Wiley,
  • Epstein R.A (1995/1977) Theory of Gambling and Statistical Logic (Rev. Ed.), San Diego, Academic Press,
  • Fama, E., Blume, M. (1966). Filter Rules and Stock Market Trading, Journal of Business, 39, 226-241.
  • Feller W., (1966). Wstęp do rachunku prawdopodobieństwa, Tom. I, Warszawa, PWN,
  • Haigh John, (1997). The Statistics of the National Lottery, „Journal of the Royal Statisical Society”, 160A: 187-206,
  • Kahneman D., Slovic P., Tversky A. (eds.) (1982). Judgment under Uncertainty: Heuristics and Biases, Cambridge, Cambridge University Press.
  • Murphy, J. J. (1999). Analiza techniczna rynków finansowych, Warszawa: WIG Press.
  • Pring, M. J. (1998). Podstawy analizy technicznej, Warszawa: WIG Press.
  • Robert C.P., Casella G. (1999). Monte Carlo Statistical Methods, New York, Springer, Verlag.
  • Roberts, H. (1959). Stock Market ‚Patterns’ and Financial Analysis: Methodological Suggestions, Journal of Finance, XIV(1), 1-10.
  • Vyse, S. A. Believing in Magic, The Psychology of Superstition, Oxford University Press, 1997
  • Wagenaar W.A. (1988). Paradoxes of Gambling Behaviour, Hillsdale, Lawrence Erlbaum.
  • Zielonka, P. (2002). Technical Analysis and Common Cognitive Biases, Alternative Perspectives on Finance 6: University of Hamburg August 4-6, 2002. www.departments.bucknell.edu/management/apfa

Tekst niniejszy ukazał się w miesięczniku „nasz Rynek Kapitałowy” nr 162 , 06 czerwiec 2004

podziel się na:

ZAPISZ SIĘ
NA STUDIA PODYPLOMOWE

„Psychologia Biznesu dla Menedżerów”
W AKADEMII LEONA KOŹMIŃSKIEGO W WARSZAWIE
START
MARZEC 2022

polecane książki:

SZUKAJ NA BLOGU: