w 1973 r. Fischer Black, Myron Scholes i Robert Merton opublikowali dobrze znaną obecnie formułę wyceny opcji, która miałaby znaczący wpływ na rozwój finansów ilościowych.,1 w ich modelu (Zwykle znanym jako Black-Scholes) wartość opcji zależy od przyszłej zmienności akcji, a nie od jej oczekiwanego zwrotu. Ich formuła cenowa była modelem opartym na teorii opartej na założeniu, że ceny akcji podążają za geometrycznym ruchem Browna., Biorąc pod uwagę, że Chicago Board Options Exchange (CBOE) została otwarta w 1973 roku, dyskietka została wynaleziona zaledwie dwa lata wcześniej, a IBM był jeszcze osiem lat od wprowadzenia swojego pierwszego komputera (który miał dwie dyskietki), przy użyciu podejścia opartego na danych opartych na rzeczywistych cenach opcji byłoby dość skomplikowane w tym czasie dla Blacka, Scholesa i Mertona. Chociaż ich rozwiązanie jest niezwykłe, nie jest w stanie odtworzyć niektórych empirycznych ustaleń., Jedną z największych wad Black-Scholesa jest niedopasowanie między modelową zmiennością opcji bazowej a obserwowaną zmiennością z rynku (tzw. implikowana powierzchnia zmienności).

dziś inwestorzy mają wybór. Mamy więcej mocy obliczeniowej w naszych telefonach komórkowych niż najnowocześniejsze komputery w latach 70., A dostępne dane rosną wykładniczo. W rezultacie możemy zastosować inne podejście oparte na danych do wyceny opcji. W tym artykule przedstawiamy rozwiązanie do wyceny opcji oparte na metodzie empirycznej z wykorzystaniem sieci neuronowych., Główną zaletą metod uczenia maszynowego, takich jak sieci neuronowe, w porównaniu z podejściami modelowymi, jest to, że są one w stanie odtworzyć większość empirycznych cech cen opcji.

Wprowadzenie do cen opcji

w przypadku finansowych instrumentów pochodnych zwanych opcjami, kupujący płaci sprzedawcy cenę za zakup prawa do zakupu lub sprzedaży instrumentu finansowego po określonej cenie w określonym momencie w przyszłości. Opcje mogą być użytecznymi narzędziami dla wielu aplikacji finansowych, w tym zarządzania ryzykiem, handlu i kompensacji zarządzania., Nic dziwnego, że tworzenie wiarygodnych modeli cenowych dla opcji było aktywną dziedziną badawczą w środowisku akademickim.

jednym z najważniejszych wyników tych badań była formuła Blacka-Scholesa, która podaje cenę opcji na podstawie wielu parametrów wejściowych, takich jak cena akcji bazowych, wolna od ryzyka stopa procentowa na rynku, czas do daty wygaśnięcia opcji, cena wykonania kontraktu i zmienność akcji bazowych., Przed Black-Scholes praktycy stosowali modele cenowe oparte na parytecie put-call lub założonej premii za ryzyko podobnej do wyceny projektów inwestycyjnych. W finansach przedsiębiorstw jednym z najczęściej stosowanych modeli wyceny przedsiębiorstw jest model zdyskontowanych przepływów pieniężnych (DCF), który oblicza wartość bieżącą przedsiębiorstwa jako sumę jego zdyskontowanych przyszłych przepływów pieniężnych. Stopa dyskontowa opiera się na postrzeganym ryzyku inwestowania kapitału w tę spółkę., Rewolucyjna idea Black-Scholesa polegała na tym, że nie jest konieczne stosowanie premii za ryzyko przy wycenie opcji, ponieważ cena akcji zawiera już te informacje. W 1997 roku szwedzka Królewska Akademia Nauk przyznała nagrodę Nobla w dziedzinie nauk ekonomicznych Merton i Scholes za ich przełomową pracę. (Czarne nie brały udziału w konkursie. Zmarł w 1995 roku, a Nagrody Nobla nie przyznano pośmiertnie.,)

Jeśli Wszystkie ceny opcji są dostępne na rynku, Black-Scholes może być użyty do obliczenia tzw. implikowanej zmienności na podstawie cen opcji, ponieważ znane są wszystkie pozostałe zmienne wzoru. Bazując na Black-Scholesie, implikowana zmienność powinna być taka sama dla wszystkich cen strajkowych opcji, ale w praktyce naukowcy odkryli, że implikowana zmienność opcji nie jest stała. Zamiast tego jest on przekrzywiony lub w kształcie uśmiechu.

naukowcy aktywnie poszukują modeli, które są w stanie wycenić opcje w sposób, który może odtworzyć empirycznie zaobserwowaną implikowaną powierzchnię zmienności., Jednym z popularnych rozwiązań jest model Hestona, w którym zmienność aktywów bazowych jest określana za pomocą innego procesu stochastycznego. Model, nazwany na cześć Matematyka z Uniwersytetu Maryland Stevena Hestona, jest w stanie odtworzyć wiele wyników empirycznych — w tym implikowaną zmienność — ale nie wszystkie z nich, więc inżynierowie finansowi wykorzystali różne zaawansowane procesy bazowe, aby wymyślić rozwiązania do generowania wyników empirycznych., W miarę rozwoju modeli cenowych pojawiły się następujące trudności:

• podstawowa dynamika cen stała się bardziej złożona matematycznie i stała się bardziej ogólna — na przykład przy użyciu procesów Lévy ' ego zamiast ruchów Browna.

• * ceny opcji stały się bardziej zasobochłonne. Chociaż Model Black-Scholes ma rozwiązanie w formie zamkniętej do wyceny europejskich opcji połączeń, dziś ludzie zwykle używają bardziej obliczeniowo intensywnych metod Monte Carlo do ich wyceny.

• aby zrozumieć i wykorzystać modele cenowe, potrzeba głębszej wiedzy technicznej.,

zastosowanie metod uczenia maszynowego do wyceny opcji rozwiązuje większość tych problemów. Istnieją różne algorytmy, które są w stanie zbliżyć funkcję na podstawie wejść i wyjść funkcji, jeśli liczba punktów danych jest wystarczająco duża. Jeśli widzimy opcję jako funkcję między Warunkami zakontraktowanymi (wejścia) a marżą opcji( wyjścia), możemy po prostu zignorować wszystkie kwestie finansowe związane z opcjami lub giełdami., Później zobaczymy, jak dodanie wiedzy finansowej z powrotem do modelu może pomóc poprawić dokładność wyników, ale na poziomie podstawowym nie są potrzebne żadne informacje związane z finansami.

jedna z tych technik aproksymacji wykorzystuje sztuczne sieci neuronowe, które mają wiele przydatnych właściwości., Na przykład, niektórzy członkowie sztucznych sieci neuronowych są uniwersalnymi aproksymatorami — co oznacza, że jeśli próbka jest wystarczająco duża, a algorytm jest wystarczająco złożony, to funkcja, której nauczyła się sieć, będzie wystarczająco blisko prawdziwej dla dowolnego praktycznego celu, jak pokazali George Cybenko (1989)2 i Kurt Hornik, Maxwell B. Stinchcombe i Halbert White (1989).3 Sztuczne sieci neuronowe są odpowiednie dla dużych baz danych, ponieważ obliczenia można łatwo wykonywać na wielu komputerach równolegle., Jedną z ich najciekawszych właściwości jest dwoistość w szybkości obliczeń: chociaż szkolenie może być dość czasochłonne, gdy proces zostanie zakończony i przybliżenie funkcji jest gotowe, przewidywanie jest niezwykle szybkie.

Sieci neuronowe

podstawową koncepcją sieci neuronowych jest modelowanie zachowania ludzkiego mózgu i tworzenie matematycznego sformułowania tego mózgu w celu wyodrębnienia informacji z danych wejściowych., Podstawową jednostką sieci neuronowej jest perceptron, który naśladuje zachowanie neuronu i został wynaleziony przez amerykańskiego psychologa Franka Rosenblatta w 1957 r. 4, ale potencjał sieci neuronowych został uwolniony dopiero w 1986 r., kiedy David Rumelhart, Geoffrey Hinton i Ronald Williams opublikowali swój wpływowy artykuł na temat algorytmu backropagation, który pokazał sposób trenowania sztucznych neuronów.5 Po tym odkryciu zbudowano wiele typów sieci neuronowych, w tym wielowarstwowy perceptron (MLP), który jest przedmiotem niniejszego artykułu.,

MLP składa się z warstw perceptronów, z których każda ma wejście: sumę wyjścia perceptronów z poprzedniej warstwy pomnożoną przez ich wagi; może być różna dla każdego perceptronu. Perceptrony używają nieliniowej funkcji aktywacji (takiej jak funkcja esicy w kształcie litery S) do przekształcania sygnałów wejściowych w sygnały wyjściowe i wysyłania tych sygnałów do następnej warstwy. Pierwsza warstwa (warstwa wejściowa) jest unikalna; perceptrony w tej warstwie mają tylko wyjście, które jest danymi wejściowymi., Ostatnia warstwa (warstwa wyjściowa) jest unikalna w tym sensie, że w problemach regresji zwykle składa się z pojedynczego perceptronu. Wszelkie warstwy między tymi dwiema warstwami są zwykle nazywane warstwami ukrytymi. Dla MLP z jedną ukrytą warstwą wizualizacja przedstawia się następująco na rysunku 1.,

Rysunek 1 można zapisać matematycznie między warstwą ukrytą a warstwą wejściową jako:

i pomiędzy końcowym wyjściem a ukrytą warstwą jako:

gdzie F1 i F2 są funkcjami aktywacyjnymi, α i β zawierają macierze wagowe między warstwami, a ε jest terminem błędu ze średnią 0.,

pierwszym krokiem obliczeń jest losowo zainicjowanie macierzy wagi; proces ten zostanie użyty do przekształcenia zmiennych wejściowych na prognozowane wyjście. Na podstawie tego wyniku można obliczyć wartość funkcji strat, porównując rzeczywiste i prognozowane wyniki na podstawie danych treningowych. Metoda backropagation może być wykorzystana do obliczenia gradientów modelu, które następnie mogą być wykorzystane do aktualizacji macierzy wagi., Po zaktualizowaniu ciężarów funkcja strat powinna mieć mniejszą wartość, wskazując, że błąd prognozowania danych treningowych został zmniejszony. Poprzednie kroki należy powtarzać do czasu zbieżności modelu i zaakceptowania błędu prognozowania.

chociaż poprzedni proces może wydawać się skomplikowany, istnieje wiele gotowych pakietów programistycznych, które pozwalają użytkownikom skoncentrować się na problemie wysokiego poziomu zamiast na szczegółach implementacji., Obowiązkiem użytkownika jest konwersja danych wejściowych i wyjściowych do właściwej formy, ustawienie parametrów sieci neuronowej i rozpoczęcie fazy uczenia się. Zazwyczaj najważniejszymi parametrami są liczba neuronów w każdej warstwie oraz liczba warstw.

opcje cenowe z wielowarstwowymi percepcjami

jak pokazano wcześniej, klasyczne modele cenowe opcji opierają się na procesie bazowym, który odtwarza empiryczną zależność między danymi opcyjnymi (cena wykonania, czas do terminu zapadalności, Typ), danymi bazowymi i marżą opcji, która jest obserwowalna na rynku., Metody uczenia maszynowego nie zakładają nic o procesie bazowym; próbują oszacować funkcję między danymi wejściowymi a premiami, minimalizując daną funkcję kosztów (Zwykle średni kwadratowy błąd między ceną modelu a obserwowaną ceną na rynku), aby osiągnąć dobrą wydajność poza próbką.

istnieje rozwijająca się Literatura stosująca inne metody data science, takie jak regresja wektorowa wsparcia lub zespoły drzew, ale Sieci neuronowe, takie jak wielowarstwowe perceptrony, na ogół dobrze pasują do cen opcji., W większości przypadków opcja premium jest monotoniczną funkcją parametrów, więc tylko jedna ukryta warstwa jest potrzebna, aby zapewnić wysoką precyzję i model jest trudniejszy do wyprzedzenia.

Korzystanie z uczenia maszynowego dla opcji cenowych nie jest nową koncepcją; dwie z odpowiednich wczesnych prac zostały stworzone na początku lat 90.do opcji indeksów cenowych na S&P 100 i s&P 500.6,7 metody te są obecnie wygodne dzięki dostępności kilku pakietów oprogramowania dla sieci neuronowych., Chociaż opcje cenowe stały się łatwiejsze, nadal jest to nieco bardziej skomplikowane niż załadowanie danych wejściowych (charakterystyka opcji, DANE bazowego składnika aktywów) i danych docelowych (składki) i naciśnięcie klawisza „enter”.”Pozostaje jeden problem: zaprojektowanie architektury sieci neuronowej i uniknięcie nadmiernego dopasowania modelu.

większość metod uczenia maszynowego opiera się na iteracyjnym procesie znajdowania odpowiednich parametrów w sposób minimalizujący różnicę między wynikami modelu a celem., Zwykle zaczynają od uczenia się znaczących relacji, ale po chwili minimalizują tylko błąd specyficzny dla próbki i zmniejszają ogólną wydajność modelu na niewidocznych danych poza próbką. Istnieje wiele sposobów radzenia sobie z tym problemem; jednym z popularnych jest wczesne zatrzymanie. Metoda ta dzieli oryginalne dane treningowe na próbki treningowe i walidacyjne, instruując model tylko na danych treningowych i oceniając go na próbce walidacyjnej., Na początku procesu uczenia się błąd próbki walidacyjnej zmniejsza się synchronicznie z błędem próbki szkoleniowej, ale później próbki szkoleniowe i walidacyjne zaczynają się różnić; błąd zmniejsza się tylko w próbce szkoleniowej i zwiększa się w próbce walidacyjnej. Zjawisko to sygnalizuje nadmiarowość parametrów, a proces powinien zostać zatrzymany pod koniec synchronicznie malejącej fazy.,

modele, które mają więcej parametrów, mogą być łatwiej przepełnione, więc liczba percepcji i warstw powinna być zrównoważona między Poznaniem ważnych cech a utratą pewnej precyzji z powodu przepełnienia. Szybkość uczenia się określa, jak bardzo należy modyfikować parametry w każdej iteracji; jest to ważne ustawienie i musi być ustawione ręcznie. Czasami te metaparametry są ustalane na podstawie błędów walidacji; wybór ich jest bardziej sztuką niż nauką., Wybranie „najlepszych” parametrów daje lepsze wyniki, ale dokładność uzyskiwana podczas precyzyjnego strojenia zwykle maleje, więc wytrenowany model jest na tyle dobry, że można go użyć już po kilku próbach.

Poprawa wydajności

powyższe metody mogą być powszechnie stosowane do poprawy modeli sieci neuronowych. W wielu przypadkach dodanie wiedzy specyficznej dla problemu (w tym przypadku wiedzy finansowej) może poprawić wydajność modelu., W tym momencie MLP nauczył się już dobrego przybliżenia formuły wyceny opcji, ale precyzja jest określona przez wielkość próby (która jest zwykle stała) i zmienne wejściowe. Stąd istnieją trzy sposoby dalszej poprawy wydajności:

1. Dodaj więcej zmiennych wejściowych, które pomagają modelowi lepiej zrozumieć formułę wyceny opcji.

2. Zwiększ jakość zmiennych wejściowych poprzez filtrowanie wartości odstających.

3. Przekształć funkcję w sposób, który jest łatwiejszy do przybliżenia.

pierwsze podejście jest dość proste., Wprowadzenie nowej zmiennej do modelu zwiększa jego złożoność i ułatwia dopasowanie. W rezultacie każda nowa zmienna musi zwiększyć moc predykcyjną modelu, aby zrekompensować zwiększoną liczbę parametrów. A ponieważ ceny opcji zależą od oczekiwanej zmienności bazowego papieru wartościowego w przyszłości, każda zmienna, która działa jako wskaźnik zmienności historycznej lub domniemanej, zwykle czyni MLP bardziej precyzyjnym., Aby zwiększyć dokładność, profesorowie Loyola University Chicago, Mary Malliaris i Linda Salchenberger zasugerowali dodanie opóźnionych cen podstawowego zabezpieczenia i opcji.

drugą metodą jest zwiększenie jakości zmiennych wejściowych. Ponieważ ceny opcji mniej płynnych zazwyczaj zawierają więcej szumów niż bardziej płynnych, filtrowanie tych opcji powinno poprawić dokładność modelu cenowego., Ale jeśli chcielibyśmy oszacować premię za opcje głęboko-in-the-money lub out-of-the-money, ta metoda czyszczenia może wyeliminować znaczną część używanego zestawu danych. Tak więc, ważne jest, aby naukowcy wybrać kryteria filtrowania, które są optymalnym wyborem między wypadanie odstających i utrzymanie maksymalnej ilości użytecznych informacji.

trzecie podejście — gdzie sztuka przejmuje metodologię — rodzi otwarte pytanie: jeśli sieć neuronowa może przybliżyć dowolną funkcję, to co powinniśmy przewidzieć?, Jest to punkt, w którym istnieje najmniejsza ilość konsensusu wśród praktyków.

problem jest jasny: potrzebujemy końcowego wyjścia z sieci neuronowej, które mówi, ile warta jest opcja z parametrami wejściowymi. Nie oznacza to jednak, że ostateczna cena jest najlepszym celem. Pytanie jest mniej istotne, gdy mamy dużą wielkość próby. Gdy zbiór danych jest mały, wybór najlepszego sposobu pomiaru funkcji może zwiększyć dokładność., Najczęściej wybieranymi rozwiązaniami są:

przewiduj premię opcji bezpośrednio, potencjalnie wykorzystując informacje, które mamy z modeli matematycznych — na przykład dodając do zmiennych wejściowych zmienność implikowaną. Nawet jeśli skutecznie zminimalizujemy błąd w funkcji premii, nie oznacza to, że po przekształceniu jej w ostateczną prognozę błędy będą nadal najlepsze do osiągnięcia dla premii. Przewidując premię bezpośrednio, wymuszamy najlepszy wynik.,

przewiduj przewidywaną zmienność opcji i umieść ją z powrotem we wzorze Black-Scholesa. To powinno uczynić premium czytelnym. Dużą zaletą jest to, że inna zmienna docelowa znajduje się w tym samym zakresie wartości, nawet jeśli wartość opcji jest różna pod względem wielkości. Inne zmienne Black-Scholesa mogą być używane do przewidywania premii opcyjnych, ale zmienność implikowana jest najbardziej popularna wśród nich.8

oszacuj stosunek premii opcyjnej do ceny wykonania., Jeśli ceny opcji bazowych zachowują się jak geometryczne ruchy Browna, ta właściwość może być wykorzystana do zmniejszenia liczby parametrów wejściowych. W takim przypadku badacz wykorzystałby stosunek ceny bazowej do ceny wykonania jako jeden z parametrów wejściowych, zamiast oddzielnie stosować ceny bazowe i ceny wykonania. To rozwiązanie może być bardzo przydatne, jeśli rozmiar zestawu danych jest mały i jesteś bardziej narażony na problemy z przepełnieniem.,

chociaż nie ma zgody co do tego, które funkcje badacze powinni próbować przewidzieć, istnieje druga debata na temat tego, czy zbiór danych powinien być podzielony na podzbiory oparte na różnych cechach. Malliaris i Salchenberger twierdzą, że opcje in-the-money I out-of-the-money powinny być podzielone na różne zbiory danych. Z praktycznego punktu widzenia podejście to może być użyteczne, ponieważ wielkość premii opcyjnych może być bardzo różna w obu grupach., Sovan Mitra, starszy wykładowca nauk matematycznych na Uniwersytecie w Liverpoolu, twierdzi, że jeśli dane zostaną podzielone na zbyt wiele części, szansa na przerobienie się zwiększa i precyzja modelu na wynikach poza próbką jest zmniejszona.9

świat przeszedł długą drogę od czasu, gdy Black, Scholes i Merton opublikowali swoje przełomowe artykuły na temat cen opcji w 1973 roku. Wykładniczy wzrost mocy obliczeniowej i danych, szczególnie w ciągu ostatniej dekady, pozwolił naukowcom zastosować techniki uczenia maszynowego do pochodnych cenowych z precyzją nieprzewidzianą w latach 70. i 80., W tamtych czasach Wycena opcji opierała się głównie na modelach teoretycznych opartych na podstawach rachunku stochastycznego. W tym artykule przedstawiamy alternatywną metodę wykorzystującą uczenie maszynowe, w szczególności sieci neuronowe, do opcji cenowych z podejściem opartym na danych. Uważamy, że takie podejście może być cennym dodatkiem do zestawu narzędzi inżynierów finansowych i może zastąpić tradycyjne metody w wielu obszarach zastosowań.

Balazs Mezofi jest badaczem ilościowym w WorldQuant, LLC i posiada tytuł magistra matematyki aktuarialnej i finansowej na Uniwersytecie Corvinus w Budapeszcie.,

Kristof Szabo jest starszym badaczem ilościowym w WorldQuant, LLC i posiada tytuł magistra matematyki aktuarialnej i finansowej na Uniwersytecie Eötvös Loránd w Budapeszcie.

ENDNOTES

1. Stephen M. Schaefer. „Robert Merton, Myron Scholes and the Development of Derivatives Pricing.”Scandinavian Journal of Economics 100, no. 2 (1998): 425-445.

2. George Cybenko „Przybliżenie przez Superpozycje funkcji sigmoidalnej.”Mathematics of Control, Signals and Systems 2, no. 4 (1989): 303-314.

3. Kurt Hornik, Maxwell B. Stinchcombe i Halbert White., „Wielowarstwowe Sieci Zasilające Są Uniwersalnymi Aproksymatorami.”Neural Networks 2, no. 5 (1989): 359-366.

4. Frank Rosenblatt. „Perceptron: probabilistyczny Model przechowywania i organizacji informacji w mózgu.”Przegląd psychologiczny 65, nr 6 (1958): 386-408.

6. Mary Malliaris i Linda M. Salchenberger. „Model sieci neuronowej do szacowania cen opcji.”Applied Intelligence 3, no. 3 (1993): 193-206.

7. James M. Hutchinson, Andrew W. Lo i Tomaso Poggio. „Nieparametryczne podejście do wyceny i zabezpieczania pochodnych papierów wartościowych poprzez sieci edukacyjne.,”Journal of Finance 49, no. 3 (1994): 851-889.

8. Mary Malliaris i Linda Salchenberger. „Wykorzystanie sieci neuronowych do prognozowania zmienności S&p 100.”Neurocomputing 10, no. 2 (1996): 183-195.

9. Sovan K. Mitra. „Model wyceny opcji, który łączy podejście sieci neuronowych i formułę Scholesa.”Global Journal of Computer Science and Technology” 12, nr 4 (2012).

artykuły o przywództwie myślowym są przygotowywane i są własnością WorldQuant, LLC i są udostępniane wyłącznie w celach informacyjnych i edukacyjnych., Niniejszy artykuł nie ma na celu odnosić się do żadnej konkretnej strategii inwestycyjnej lub produktu, ani nie stanowi porady inwestycyjnej ani nie przedstawia oferty sprzedaży lub zaproszenia do złożenia oferty kupna jakichkolwiek papierów wartościowych lub innych produktów finansowych. Ponadto informacje zawarte w żadnym artykule nie mają na celu dostarczania i nie należy polegać na doradztwie inwestycyjnym, księgowym, prawnym lub podatkowym. WorldQuant nie udziela żadnych gwarancji ani oświadczeń, wyraźnych ani dorozumianych, dotyczących dokładności lub adekwatności jakichkolwiek informacji, a użytkownik akceptuje wszelkie ryzyko polegania na takich informacjach., Opinie wyrażone w niniejszym dokumencie są wyłącznie poglądami WorldQuant na dzień tego artykułu i mogą ulec zmianie bez powiadomienia. Nie można zapewnić, że jakiekolwiek cele, założenia, oczekiwania i/lub cele opisane w tym artykule zostaną zrealizowane lub że działania opisane w artykule były lub będą kontynuowane w ogóle lub w taki sam sposób, jak były prowadzone w okresie objętym niniejszym artykułem. WorldQuant nie zobowiązuje się do informowania o jakichkolwiek zmianach w poglądach wyrażonych w niniejszym dokumencie., WorldQuant i jego podmioty stowarzyszone są zaangażowane w szeroki zakres obrotu papierami wartościowymi i działalności inwestycyjnej i mogą mieć znaczący interes finansowy w jednym lub większej liczbie papierów wartościowych lub produktów finansowych omówionych w artykułach.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *