en 1973, Fischer Black, Myron Scholes et Robert Merton ont publié leur formule de tarification des options désormais bien connue, qui aurait une influence significative sur le développement de la finance quantitative.,1 dans leur modèle (généralement connu sous le nom de Black-Scholes), la valeur d’une option dépend de la volatilité future d’une action plutôt que de son rendement attendu. Leur formule de tarification était un modèle théorique basé sur l’hypothèse que les cours des actions suivent un mouvement brownien géométrique., Considérant que le Chicago Board Options Exchange (CBOE) a ouvert en 1973, la disquette avait été inventée seulement deux ans plus tôt et IBM était encore huit ans loin d’introduire son premier PC (qui avait deux lecteurs de disquettes), en utilisant une approche axée sur les données basée sur les prix des options de la vie réelle aurait été assez compliqué à Bien que leur solution soit remarquable, elle est incapable de reproduire certaines conclusions empiriques., L’un des plus grands défauts de Black-Scholes est l’inadéquation entre la volatilité du modèle de l’option sous-jacente et la volatilité observée du marché (la soi-disant surface de volatilité implicite).

aujourd’Hui, les investisseurs ont le choix. Nous avons plus de puissance de calcul dans nos téléphones mobiles que les ordinateurs de pointe avaient dans les années 1970, et les données disponibles augmentent de façon exponentielle. Par conséquent, nous pouvons utiliser une approche différente, axée sur les données pour la tarification des options. Dans cet article, nous présentons une solution de tarification des options basée sur une méthode empirique utilisant des réseaux de neurones., Le principal avantage des méthodes d’apprentissage automatique telles que les réseaux de neurones, par rapport aux approches basées sur des modèles, est qu’elles sont capables de reproduire la plupart des caractéristiques empiriques des prix des options.

Introduction au prix des Options

avec les dérivés financiers appelés options, l’acheteur paie un prix au vendeur pour acheter un droit d’acheter ou de vendre un instrument financier à un prix spécifié à un moment déterminé dans le futur. Les Options peuvent être des outils utiles pour de nombreuses applications financières, y compris la gestion des risques, Le trading et la rémunération de la direction., Sans surprise, la création de modèles de tarification fiables pour les options a été un domaine de recherche actif dans le milieu universitaire.

l’un des résultats les plus importants de cette recherche a été la formule de Black-Scholes, qui donne le prix d’une option en fonction de plusieurs paramètres d’entrée, tels que le prix de l’action sous-jacente, le taux d’intérêt sans risque du marché, le délai jusqu’à la date d’expiration de l’option, le prix, Avant Black-Scholes, les praticiens utilisaient des modèles de tarification basés sur la parité put-call ou une prime de risque supposée similaire à l’évaluation des projets d’investissement. En finance d’entreprise, l’un des modèles les plus fréquemment utilisés pour l’évaluation des entreprises est le modèle de flux de trésorerie actualisé (DCF), qui calcule la valeur actuelle d’une entreprise comme la somme de ses flux de trésorerie futurs actualisés. Le taux d’actualisation est basé sur le risque perçu d’investir du capital dans cette société., L’idée révolutionnaire derrière Black-Scholes était qu’il n’est pas nécessaire d’utiliser la prime de risque lors de l’évaluation d’une option, car le cours de l’action contient déjà cette information. En 1997, L’Académie royale des Sciences de Suède a décerné le prix Nobel de sciences économiques à Merton et Scholes pour leurs travaux révolutionnaires. (Black n’a pas participé au prix. Il est décédé en 1995 et les prix Nobel ne sont pas décernés à titre posthume.,)

Si tous les prix des options sont disponibles sur le marché, Black-Scholes peut être utilisé pour calculer la volatilité dite implicite basée sur les prix des options, car toutes les autres variables de la formule sont connues. Sur la base de Black-Scholes, la volatilité implicite devrait être la même pour tous les prix d’exercice de l’option, mais dans la pratique, les chercheurs ont constaté que la volatilité implicite des options n’est pas constante. Au lieu de cela, il est biaisé ou en forme de sourire.

Les chercheurs recherchent activement des modèles capables de fixer le prix des options de manière à reproduire la surface de volatilité implicite observée empiriquement., Une solution populaire est le modèle de Heston, dans lequel la volatilité de l’actif sous-jacent est déterminée à l’aide d’un autre processus stochastique. Le modèle, nommé D’après le mathématicien Steven Heston de l’Université du Maryland, est capable de reproduire de nombreux résultats empiriques — y compris la volatilité implicite — mais pas tous, de sorte que les ingénieurs financiers ont utilisé différents processus sous-jacents avancés pour trouver des solutions pour générer des résultats empiriques., Au fur et à mesure de l’évolution des modèles de tarification, les difficultés suivantes sont apparues:

• la dynamique des prix sous — jacente s’est complexifiée mathématiquement et est devenue plus générale-par exemple, en utilisant des processus de Lévy au lieu de mouvements Browniens.

• la tarification des options est devenue plus gourmande en ressources. Bien que le modèle Black-Scholes ait une solution de forme fermée pour la tarification des options D’achat européennes, aujourd’hui, les gens utilisent généralement des méthodes de Monte Carlo plus intensives en calcul pour les évaluer.

• Il faut des connaissances techniques plus approfondies pour comprendre et utiliser les modèles de tarification.,

L’application de méthodes d’apprentissage automatique à la tarification des options résout la plupart de ces problèmes. Il existe différents algorithmes capables d’approximer une fonction en fonction des entrées et des sorties de la fonction si le nombre de points de données est suffisamment important. Si nous considérons l’option comme une fonction entre les Termes contractés (entrées) et la prime de l’option (Sortie), nous pouvons simplement ignorer toutes les questions financières liées aux options ou aux marchés boursiers., Plus tard, nous verrons comment l’ajout de connaissances financières dans le modèle peut aider à améliorer l’exactitude des résultats, mais au niveau de base, aucune information liée à la finance n’est nécessaire.

l’Une de ces techniques d’approximation utilise des réseaux de neurones artificiels, qui ont un certain nombre de propriétés utiles., Par exemple, certains membres des réseaux de neurones artificiels sont des approximateurs universels — ce qui signifie que si l’échantillon est assez grand et que l’algorithme est assez complexe, alors la fonction que le réseau a apprise sera suffisamment proche de la fonction réelle pour n’importe quel but pratique, comme L’ont montré George Cybenko (1989)2 et Kurt Hornik, Maxwell B. Stinchcombe et Halbert White (1989).3 les réseaux de neurones artificiels conviennent aux grandes bases de données car les calculs peuvent être effectués facilement sur plusieurs ordinateurs en parallèle., L’une de leurs propriétés les plus intéressantes est la dualité de la vitesse de calcul: bien que la formation puisse prendre beaucoup de temps, une fois le processus terminé et l’approximation de la fonction prête, la prédiction est extrêmement rapide.

réseaux de neurones

Le concept essentiel des réseaux de neurones est de modéliser le comportement du cerveau humain et de créer une formulation mathématique de ce cerveau pour extraire l’information des données d’entrée., L’Unité de base d’un réseau neuronal est un perceptron, qui imite le comportement d’un neurone et a été inventé par le psychologue américain Frank Rosenblatt en 1957.4 mais le potentiel des réseaux neuronaux n’a pas été libéré avant 1986, lorsque David Rumelhart, Geoffrey Hinton et Ronald Williams ont publié leur article influent sur l’algorithme de rétropropagation, qui a5 Après cette découverte, de nombreux types de réseaux neuronaux ont été construits, dont le perceptron multicouche (MLP), qui est au centre de cet article.,

le MLP est constitué de couches de perceptrons, chacune ayant une entrée: la somme de la sortie des perceptrons de la couche précédente multipliée par leurs poids; elle peut être différente pour chaque perceptron. Les perceptrons utilisent une fonction d’activation non linéaire (comme la fonction sigmoïde en forme de S) pour transformer les signaux d’entrée en signaux de sortie et envoyer ces signaux dans la couche suivante. La première couche (la couche d’entrée) est unique; les perceptrons de cette couche ont juste une sortie, qui est les données d’entrée., La dernière couche (la couche de sortie) est unique en ce sens que dans les problèmes de régression, elle consiste généralement en un seul perceptron. Toutes les couches entre ces deux couches sont généralement appelées couches cachées. Pour un MLP avec une couche cachée, la visualisation est la suivante dans la Figure 1.,

la Figure 1 peut être écrit mathématiquement entre la couche cachée et la couche d’entrée comme:

et entre le résultat final et la couche cachée comme:

où f1 et f2 sont des fonctions d’activation, α et β contiennent des matrices de poids entre les couches, et ε est un terme d’erreur à 0 signifient.,

la première étape du calcul consiste à initialiser aléatoirement les matrices de poids; ce processus sera utilisé pour transformer les variables d’entrée en sortie prévue. En utilisant cette sortie, la valeur de la fonction de perte peut être calculée, en comparant les résultats réels et prévus à l’aide des données d’entraînement. La méthode de rétropropagation peut être utilisée pour calculer les gradients du modèle, qui peuvent ensuite être utilisés pour mettre à jour les matrices de poids., Une fois les poids mis à jour, la fonction de perte devrait avoir une valeur plus petite, indiquant que l’erreur de prévision sur les données d’entraînement a été réduite. Les étapes précédentes doivent être répétées jusqu’à ce que le modèle converge et que l’erreur de prévision soit acceptable.

bien que le processus précédent puisse sembler compliqué, il existe de nombreux paquets de programmation prêts à l’emploi qui permettent aux utilisateurs de se concentrer sur le problème de haut niveau au lieu des détails d’implémentation., La responsabilité de l’utilisateur est de convertir les données d’entrée et de sortie sous la forme correcte, de définir les paramètres du réseau neuronal et de démarrer la phase d’apprentissage. Généralement, les paramètres les plus importants sont le nombre de neurones dans chaque couche et le nombre de couches.

Options de tarification avec Perceptrons multicouches

comme indiqué précédemment, les modèles classiques de tarification des options sont construits sur un processus sous-jacent qui reproduit la relation empirique entre les données d’option (Prix d’exercice, délai d’échéance, type), les données sous-jacentes et la prime de l’option, qui est observable sur le marché., Les méthodes d’apprentissage automatique ne supposent rien sur le processus sous-jacent; elles essaient d’estimer une fonction entre les données d’entrée et les primes, en minimisant une fonction de coût donnée (généralement l’erreur quadratique moyenne entre le prix du modèle et le prix observé sur le marché) pour atteindre de bonnes performances hors échantillon.

Il existe une littérature en évolution qui applique d’autres méthodes de science des données, telles que la régression des vecteurs de support ou les ensembles d’arbres, mais les réseaux de neurones comme les perceptrons multicouches conviennent généralement bien à la tarification des options., Dans la plupart des cas, l’option premium est une fonction monotone des paramètres, de sorte qu’une seule couche cachée est nécessaire pour fournir une haute précision et le modèle est plus difficile à dépasser.

utiliser l’apprentissage automatique pour les options de tarification n’est pas un concept nouveau; deux des premiers travaux pertinents ont été créés au début des années 1990 pour indexer les options sur le s&P 100 et le s&P 500.6,7 Ces méthodes sont pratiques de nos jours grâce à la disponibilité de plusieurs logiciels pour les réseaux de neurones., Bien que les options de tarification soient devenues plus faciles, il est encore un peu plus compliqué que de charger les données d’entrée (caractéristiques des options, données de l’actif sous-jacent) et les données cibles (primes) et d’appuyer sur « Entrée. »Un problème demeure: concevoir l’architecture du réseau neuronal et éviter de surajuster le modèle.

la plupart des méthodes d’apprentissage automatique sont basées sur un processus itératif pour trouver les paramètres appropriés de manière à minimiser la différence entre les résultats du modèle et de la cible., Ils commencent généralement par apprendre des relations significatives, mais après un certain temps, ils minimisent uniquement l’erreur spécifique à l’échantillon et réduisent les performances générales du modèle sur des données invisibles hors échantillon. Il existe de nombreuses façons de gérer ce problème; l’un des plus populaires est l’arrêt précoce. Cette méthode sépare les données de formation d’origine en échantillons de formation et de validation, instruisant le modèle uniquement sur les données de formation et l’évaluant sur l’échantillon de validation., Au début du processus d’apprentissage, l’erreur de l’échantillon de validation diminue de façon synchrone avec l’erreur de la formation de l’échantillon, mais plus tard, la formation et la validation des échantillons commencent à diverger; l’erreur diminue seulement dans la formation de l’échantillon et augmente dans l’échantillon de validation. Ce phénomène signale le sur-ajustement des paramètres et le processus doit être arrêté à la fin de la phase de diminution synchrone.,

Les modèles qui ont plus de paramètres peuvent être sur-ajustés plus facilement, de sorte que le nombre de perceptrons et de couches doit être équilibré entre l’apprentissage des caractéristiques importantes et la perte de précision en raison d’un sur-ajustage. Le taux d’apprentissage détermine la quantité à modifier les paramètres à chaque itération; c’est un paramètre important et doit être défini manuellement. Parfois, ces métaparamètres sont décidés en fonction d’erreurs de validation; les choisir est plus de l’art que de la science., Choisir les « meilleurs » paramètres peut donner de meilleurs résultats, mais la précision acquise lors du réglage fin diminue généralement, de sorte que le modèle entraîné est assez bon pour être utilisé après seulement quelques essais.

amélioration des performances

Les méthodes mentionnées ci-dessus peuvent être généralement utilisées pour améliorer les modèles de réseaux neuronaux. Dans de nombreux cas, l’ajout de connaissances spécifiques au problème (dans ce cas, des connaissances financières) peut améliorer les performances du modèle., À ce stade, le MLP a déjà appris une bonne approximation de la formule de tarification des options, mais la précision est déterminée par la taille de l’échantillon (qui est généralement fixe) et les variables d’entrée. À partir de là, il y a trois façons d’améliorer encore les performances:

1. Ajoutez plus de variables d’entrée qui aident le modèle à mieux comprendre la formule de tarification des options.

2. Augmentez la qualité des variables d’entrée en filtrant les valeurs aberrantes.

3. Transformez la fonction d’une manière plus facile à approximer.

La première approche est assez simple., L’introduction d’une nouvelle variable dans le modèle augmente sa complexité et facilite le surfit. En conséquence, chaque nouvelle variable doit augmenter la puissance prédictive du modèle pour compenser l’augmentation du nombre de paramètres. Et parce que les prix des options dépendent de la volatilité attendue du titre sous-jacent à l’avenir, toute variable qui agit comme une approximation de la volatilité historique ou implicite rend généralement le MLP plus précis., Pour améliorer la précision, Mary Malliaris et Linda Salchenberger, professeures à L’Université Loyola de Chicago, ont suggéré d’ajouter les prix différés du titre sous-jacent et de l’option.

La deuxième méthode est d’augmenter la qualité des variables d’entrée. Étant donné que les prix des options moins liquides contiennent généralement plus de bruit que ceux des options plus liquides, le filtrage de ces options devrait améliorer la précision du modèle de tarification., Mais si nous voulons estimer la prime pour les options deep-in-the-money ou out-of-the-money, cette méthode de nettoyage pourrait éliminer une partie importante de l’ensemble de données utilisé. Ainsi, il est important pour les chercheurs de choisir des critères de filtrage qui sont le choix optimal entre abandonner les valeurs aberrantes et conserver le maximum d’informations utiles.

la troisième approche — où l’art prend le dessus sur la méthodologie-soulève une question ouverte: si le réseau neuronal peut approximer n’importe quelle fonction, alors que devrions-nous prévoir?, C’est le point où il y a le moins de consensus parmi les praticiens.

le problème est clair: nous avons besoin d’une sortie finale du réseau neuronal qui indique combien vaut une option avec les paramètres d’entrée. Cela ne signifie cependant pas que le prix final est la meilleure cible à viser. La question est moins pertinente lorsque nous avons un échantillon de grande taille. Lorsque l’ensemble de données est petit, choisir la meilleure façon de mesurer une fonction peut augmenter encore la précision., Les solutions les plus fréquemment choisies sont les suivantes:

prédire directement la prime de l’option, potentiellement en utilisant les informations que nous avons des modèles mathématiques — par exemple, en ajoutant la volatilité implicite aux variables d’entrée. Même si nous réussissons à minimiser l’erreur pour la fonction de la prime, cela ne signifie pas qu’après l’avoir transformée en prédiction finale, les erreurs seront toujours les meilleures réalisables pour la prime. En prédisant directement la prime, nous forçons le meilleur résultat.,

prédire la volatilité implicite de l’option, et le remettre dans la formule de Black-Scholes. Cela devrait rendre la prime lisible. Le gros avantage ici est que la variable cible différente est dans la même plage de valeurs même si la prime de l’option est différente en ampleur. D’autres variables de Black-Scholes peuvent être utilisées pour essayer de prédire les primes d’options, mais la volatilité implicite est la plus populaire d’entre elles.8

estimer le rapport entre la prime d’option et le prix d’exercice., Si les prix des options sous-jacentes se comportent comme des mouvements browniens géométriques, cette propriété peut être utilisée pour réduire le nombre de paramètres d’entrée. Dans ce cas, le chercheur utiliserait le rapport entre le prix sous-jacent et le prix d’exercice comme l’un des paramètres d’entrée au lieu d’utiliser séparément les prix sous-jacents et les prix d’exercice. Cette solution peut être très utile si la taille de l’ensemble de données est petite et que vous êtes plus exposé à des problèmes de sur-Ajustement.,

bien qu’il y ait désaccord sur la fonction que les chercheurs devraient essayer de prédire, il y a un deuxième débat sur la question de savoir si l’ensemble de données devrait être divisé en sous-ensembles en fonction de diverses qualités. Malliaris et Salchenberger soutiennent que les options dans l’argent et hors de l’argent devraient être divisées en différents ensembles de données. D’un point de vue pratique, cette approche peut être utile car l’ampleur des primes d’option peut être très différente dans les deux groupes., Sovan Mitra, maître de conférences en sciences mathématiques à L’Université de Liverpool, soutient que si les données sont divisées en trop de parties, le risque de surajustement augmente et la précision du modèle sur les résultats hors échantillon est réduite.9

le monde a parcouru un long chemin depuis que Black, Scholes et Merton ont publié leurs articles fondateurs sur le prix des options en 1973. La croissance exponentielle de la puissance de calcul et des données, en particulier au cours de la dernière décennie, a permis aux chercheurs d’appliquer des techniques d’apprentissage automatique aux dérivés de prix avec une précision imprévue dans les années 70 et 80., À l’époque, la tarification des options était principalement basée sur des modèles théoriques basés sur les fondements du calcul stochastique. Dans cet article, nous fournissons une méthode alternative qui utilise l’apprentissage automatique, en particulier les réseaux de neurones, pour évaluer les options avec une approche basée sur les données. Nous pensons que cette approche pourrait être un ajout précieux à l’ensemble d’outils des ingénieurs financiers et pourrait remplacer les méthodes traditionnelles dans de nombreux domaines d’application.

Balazs Mezofi est chercheur quantitatif à WorldQuant, LLC et détient une Maîtrise en mathématiques actuarielles et financières de L’Université Corvinus de Budapest.,

Kristof Szabo est chercheur quantitatif Senior à WorldQuant, LLC et détient une Maîtrise en mathématiques actuarielles et financières de L’Université Eötvös Loránd de Budapest.

notes de fin de page

1. Stephen M. Schaefer. « Robert Merton, Myron Scholes et le développement de la tarification des produits dérivés.” Scandinavian Journal of Economics 100, aucun. 2 (1998): 425-445.

2. George Cybenko. « Approximation par Superpositions D’une fonction Sigmoïdale.” Les mathématiques de Contrôle, Signaux et Systèmes 2, pas. 4 (1989): 303-314.

3. Kurt Hornik, Maxwell B. Stinchcombe et Halbert White., « Les Réseaux De Feedforward Multicouches Sont Des Approximateurs Universels.” Les Réseaux de neurones. 2, n ° 5 (1989): 359-366.

4. Frank Rosenblatt. « Le Perceptron: un modèle probabiliste pour le stockage et L’organisation de l’Information dans le cerveau.” Examen psychologique de 65 ans, non. 6 (1958): 386-408.

6. Mary Malliaris et Linda M. Salchenberger. « Un modèle de réseau neuronal pour estimer les prix des options. »Applied Intelligence 3, no .3 (1993): 193-206.

7. James M. Hutchinson, Andrew W. Lo et Tomaso Poggio. « Une approche non paramétrique de la tarification et de la couverture des titres dérivés Via des réseaux D’apprentissage.,” Journal des Finances 49, no. 3 (1994): 851-889.

8. Mary Malliaris et Linda Salchenberger. « Utilisation de réseaux neuronaux pour prévoir la volatilité implicite S&P 100. »Neurocomputing 10, no .2( 1996): 183-195.

9. Sovan K. Mitra. « Un modèle de tarification des options qui combine L’approche du réseau neuronal et la formule Black Scholes.” Global Journal of Computer Science et de la Technologie 12, no. 4 (2012).

Les articles sur le leadership éclairé sont préparés par et sont la propriété de WorldQuant, LLC, et sont mis à disposition à des fins d’information et d’éducation uniquement., Cet article n’a pas pour objet de se rapporter à une stratégie ou à un produit d’investissement spécifique, ni de constituer un conseil en investissement ou de transmettre une offre de vente, ou la sollicitation d’une offre d’achat, de titres ou d’autres produits financiers. En outre, les informations contenues dans tout article ne sont pas destinées à fournir, et ne doivent pas être invoquées pour, investissement, comptabilité, conseils juridiques ou fiscaux. WorldQuant ne fait aucune garantie ou déclaration, expresse ou implicite, concernant l’exactitude ou l’adéquation de toute information, et vous acceptez tous les risques en vous fiant à ces informations., Les opinions exprimées ici sont uniquement celles de WorldQuant à la date de cet article et sont sujettes à changement sans préavis. Aucune assurance ne peut être donnée que les objectifs, hypothèses, attentes et/ou objectifs décrits dans le présent article seront réalisés ou que les activités décrites dans l’article se sont poursuivies ou se poursuivront du tout ou de la même manière qu’elles ont été menées pendant la période couverte par le présent article. WorldQuant ne s’engage pas à vous informer de tout changement dans les opinions exprimées ici., WorldQuant et ses sociétés affiliées sont impliquées dans un large éventail d’activités de négociation et d’investissement de valeurs mobilières, et peuvent avoir un intérêt financier important dans un ou plusieurs titres ou produits financiers discutés dans les articles.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *