Juegos de computadora

5

Septiembre de 2015
Iván Obolensky

No son muchas las personas que entienden lo que es la negociación de alta frecuencia (HFT por la sigla en inglés) y el modo en que ha evolucionado; esto se debe simplemente a que su desarrollo ha tenido lugar silenciosamente, tras bambalinas, fuera de la vista del público, al menos hasta que varios problemas técnicos informáticos y quiebras financieras la situaron en el centro de atención pública.

Las negociaciones de alta frecuencia las inician programas informáticos que operan a velocidades de una millonésima de segundo. Dado que más de la mitad de las operaciones en la mayoría de las bolsas de valores se generan de esta manera, es importante entender el impacto de este tipo de comercio, pues nos afecta a todos, directa o indirectamente, de una manera u otra.1

Lo primero que hay que saber es que la negociación de alta frecuencia es un gran negocio.

Por ejemplo, Virtu Financial, un grupo de negociaciones de alta frecuencia, en su oferta pública inicial de 2014, señaló que durante el período de cinco años iniciado en 2009 obtuvo utilidades en 1.277 de los 1.278 días en los que hizo negocios. El grupo perdió dinero solo un día durante ese lustro y registró ingresos cercanos a los 500 millones de dólares en el primer semestre de 2015. Este es sin duda un desempeño impresionante.2

Las empresas de negociaciones de alta frecuencia, como Virtu, se han convertido en grandes protagonistas de los mercados en el mundo entero. Las negociaciones realizadas por firmas de este tipo representaron entre el 60 y el 70 % del volumen de transacciones de la Bolsa de Nueva York en 2009.

Para entender qué son las negociaciones de alta frecuencia, cómo funcionan y la razón por la cual pueden generar beneficios de tales magnitudes, es necesario entender un poco el contexto y revisar brevemente la historia del mercado de valores de Estados Unidos.

Originalmente, las transacciones de los mercados de valores las realizaban miembros de una bolsa en ubicaciones físicas, como en la Bolsa de Valores de Nueva York (NYSE), por ejemplo. Allí, los especialistas manejaban las órdenes comerciales entrantes para acciones específicas. Por ejemplo, había un especialista que manejaba solamente las órdenes de compra y venta de acciones de IBM. Su propósito era garantizar un mercado ordenado. Si todo el mundo estaba vendiendo, se pedía al especialista que comprara. Si todo el mundo estaba comprando, tenía que vender a los compradores. Este especialista se conoció como un creador de mercado. Su tarea era asegurarse de que hubiera un mercado, independientemente de que este subiera o bajara. Los especialistas tenían que ganar dinero durante los períodos normales del mercado para compensar los movimientos adversos ocasionales. Esto se logró mediante la creación de un margen (spread en inglés). Supongamos, por ejemplo, que una acción se cotizara a 10,00 dólares. El especialista ofrecía 100 acciones para la venta a 10,25 dólares por acción y estaba dispuesto a comprar 100 acciones a 9,75 dólares. El margen (50 centavos) sería la diferencia entre los dos precios. Al compensar las órdenes de compra y venta a medida que ingresaban, lograba embolsarse 50 centavos de dólar. Si compraba y vendía 100.000 acciones en un día, ganaba alrededor de 50.000 dólares.

Además del margen (la diferencia entre los precios de compra y venta), los especialistas tenían otras ventajas. La primera era encontrarse en el sitio mismo de la actividad y poder observar el flujo y reflujo de los precios de mercado. En segundo lugar, el especialista llevaba un libro con todas las órdenes existentes por encima y por debajo del precio corriente de una acción. Si advertía la presencia de órdenes masivas para comprar por encima del precio del momento, podía acumular acciones en su cuenta para venderlas con una ganancia cuando el precio se moviera al alza. El control de su libro le daba un conocimiento de primera mano sobre el flujo futuro de las órdenes. Por último, controlaba el monto del margen, es decir, podía establecer si la diferencia entre el precio de compra y venta era de 25 centavos o de un dólar. El margen que determinaba se basaba en su percepción de la cantidad de riesgo en el mercado en un momento dado.3

Lo anterior fue típico de los mercados antes de la década de 1970 y del despertar de la era informática. Muchos de los que se hallaban por fuera de esta red privilegiada sentían que todo el sistema era un monopolio oculto y estaban decididos a obligar a las bolsas a abrirse al público. Con el tiempo, lograron lo que deseaban.

Varias cosas dieron lugar a un cambio en el sistema existente.

La primera fue que la demanda de acciones y otros instrumentos financieros (como las opciones sobre acciones individuales) aumentó a medida que los años 70 dieron paso a la década de 1980, y que la economía estadounidense se expandió. La Bolsa de Nueva York manejaba solo las acciones de las grandes corporaciones. Todas las demás se transaban, ya sea en la Bolsa de Valores de Estados Unidos o por medio de un sistema llamado la Asociación Nacional de Corredores de Valores, que operaba a través del teléfono. (Estas bolsas se fusionaron y formaron finalmente la Nasdaq.) El número de creadores de mercado y de agentes de bolsa (que son quienes negocian acciones en nombre del público) se multiplicó con el crecimiento de la demanda de productos financieros.

Finalmente, el volumen de transacciones aumentó a tal punto que se hizo necesario algún tipo de automatización. Empezaron entonces a utilizarse computadoras para registrar las órdenes y visualizar las transacciones en tiempo real. A medida que el uso de las computadoras se popularizó y su empleo se hizo más fácil, los corredores comenzaron a notar que, aunque no debería haber ninguna, existían diferencias de precios entre el mercado de opciones, el mercado de valores y los mercados de futuros. Estas diferencias podían aprovecharse siempre y cuando se ingresara una orden con la rapidez suficiente para vender una acción y comprar otra. Las computadoras se programaron para automatizar muchas de las órdenes y poder obtener beneficios de estas discrepancias de precios. Este fue el inicio de la negociación computarizada, o lo que se conoce como transacciones programadas. El sistema no estaba todavía completamente automatizado.

En 1987, el mercado de valores colapsó. La culpa se atribuyó a las negociaciones programadas. Además, muchos inversores quedaron sin salida ya que no lograron contactar a su corredor para ingresar una orden, por no hablar de ejecutar una transacción, incluso cuando deseaban hacerla. El volumen en el momento de la caída de la bolsa era tan grande que muchos de los incipientes sistemas electrónicos para la colocación de órdenes, y también los manuales, sucumbieron. Ante el escrutinio de los reguladores, los mercados se reestructuraron y se volvió imperativo el empleo de un sistema electrónico de ingreso de órdenes que asegurara la viabilidad de las transacciones, independientemente de su volumen. Todos los creadores de mercado y los agentes de bolsa se hallaban conectados al sistema.

Con tantos datos disponibles, y ante el hecho de que tantos creadores de mercado tenían que mostrar los precios ofrecidos para comprar o vender las acciones que negociaban, se presentaban con frecuencia diferencias de precios entre un corredor y otro para la misma acción. Una vez más, los corredores que usaban los medios electrónicos comenzaron a sacar provecho de estas disparidades. Era dinero gratis y, con mejores equipos en general, los corredores electrónicos sacaron ventaja.

Después de la caída de la bolsa de 1987, los inversionistas regresaron a los mercados. El volumen de operaciones mejoró y la actividad fue más intensa que nunca, sobre todo en los fondos mutuos de inversión. Instituciones como Fidelity, los directores de fondos de pensiones, y otros gestores de grandes activos, se convirtieron en los grandes jugadores.

Con el auge de los fondos mutuos llegaron órdenes mucho más grandes. Las instituciones mencionadas anteriormente compraban y vendían millones de acciones en grandes bloques. Estas instituciones y los gerentes que tramitaban este gran flujo de órdenes no querían pagar las altas comisiones establecidas por los agentes de bolsa ni los amplios márgenes determinados por los especialistas y creadores de mercado; de igual modo, tampoco querían que otros agentes descubrieran que estaban ganando una posición importante en empresas como Microsoft, por ejemplo, ni que alguien más se beneficiara del movimiento inevitable al alza que se derivaba de todo lo que compraban. Las instituciones necesitaban un lugar para hacer las transacciones alejado de la vista del público. El poder de la computación había llegado hasta tal punto que era posible entonces crear Redes de Comunicación Electrónica, o ECN en inglés. Estas redes eran estrictamente electrónicas y acoplaban a los compradores con los vendedores. Desaparecieron los intermediarios, el creador de mercados y también el agente de bolsa, que cobraban altas comisiones.

Este fue el comienzo de lo que se conoce como las “piscinas oscuras” (dark pools en inglés). Una piscina es un mercado. Una “piscina iluminada” (lit pool en inglés) es el lugar donde todas las transacciones y cotizaciones están a la vista. Una piscina oscura es donde las transacciones se llevan a cabo lejos de la mirada del público. Los precios se fijan en las bolsas, pero solo después de los hechos, y en ocasiones a mejores precios que los que jamás podría recibir un inversionista que operara a la vista del público. La primera de estas redes fue Instinet, seguida por Island. Estas dos ECN comenzaron a realizar transacciones comerciales sin intermediarios, reduciendo los costos para los agentes institucionales.

Muchos consideraron que esta práctica era desleal y exigieron una investigación por parte de las autoridades.

Como resultado, en 1996 se acusó a Nasdaq de fijar los precios. Los reguladores consideraron que para garantizar precios justos para los inversionistas, los agentes de bolsa deberían publicar todas las cotizaciones que competían (ofertas para comprar o vender) y elegir la que le ofreciera al cliente el mejor precio. Esto requería de una capacidad informática mucho mayor para asegurar que estas cotizaciones pudieran ponerse a disposición de todos los que compraban y vendían para el público. Además las ECN, que eran el ámbito exclusivo de los agentes institucionales, también tuvieron que hacer visibles sus cotizaciones. Se acabaron las piscinas oscuras.

Esto marcó un cambio en las reglas del juego.

Las instituciones ya no podían ocultar el flujo de las órdenes.

Además, al exigir la interconexión de todas las fuentes de cotizaciones en un lenguaje informático común, los reguladores hicieron realmente posible las transacciones electrónicas. Por supuesto, el propósito de las normas era dar al consumidor un mejor precio y la estrategia funcionó, pero también tuvo consecuencias: las plataformas electrónicas se volvieron obligatorias. Esto benefició a las redes de comunicación electrónica (ECN) establecidas pero los que operaban las redes enfrentaron un gran problema: ¿cómo ganar dinero a partir de todas estas operaciones si no había creadores de mercado, ni intermediarios, ni márgenes de utilidades?

La respuesta estaba en establecer un margen mínimo para cada transacción que tuviera lugar. La idea se desarrolló como se explica a continuación.

Cuando un creador de mercado fijaba una cotización para comprar o vender, proporcionaba liquidez al sistema (más oportunidades para que una transacción se concretara cuando fuese necesario). El beneficio estaba en que le permitía a alguien negociar. La persona que creaba esta liquidez debía ser compensada. Por otro lado, si alguien compraba o vendía una acción, el comprador/vendedor restaba liquidez porque la cotización desaparecía al ser aceptada y se negaba una oportunidad a quienes querían negociar. La liquidez se reducía. Esto representaba un inconveniente. Era necesario que pagaran por restar liquidez al sistema.

Los operadores de las redes ECN decidieron cobrar 0,003 centavos a quienes aprovechaban la liquidez al aceptar una oferta para comprar o vender, y reembolsar al creador de la liquidez que hacía la oferta 0,0028 centavos por cada acción negociada (La ECN se embolsaba la diferencia de 0,0002). Aunque la tarifa era pequeña, estimulaba a los que proponían cotizaciones (ofertas para comprar o vender) y penalizaba a los que las aceptaban. La medida también sentó las bases para lo que vendría. La solución para los que poseían y operaban las redes ECN, las bolsas que con el tiempo se fusionaron con ellas y los corredores que se beneficiaban de su uso era simple: crear más volumen. No hubo que esperar mucho tiempo. El ascenso de las empresas punto com y la negociación frenética que generaron se encargó de la tarea.

Para el año 2000, dos acontecimientos influyeron de nuevo y notablemente en el mercado y en la infraestructura que lo respaldaba. El primero fue el estallido de la burbuja punto com, y el segundo, una vez más, las medidas regulatorias.

Se integraron nuevas reglas. La primera fue la adopción del uso de decimales. Las acciones se negociaban antes en mínimos de un octavo (12,5 centavos de dólar), o incluso en un dieciseisavo (6,25 centavos de dólar), en lugar de limitarse a 0,12 o 0,06. Los reguladores decidieron que para atender mejor al público las acciones se cotizarían en adelante en decimales y no en estas fracciones arcaicas, vestigios de siglos pasados. La norma llevaría al margen a pasar del mínimo (6,25 centavos de dólar), de acuerdo con el ejemplo anterior, a un centavo, ahorrando dinero a los consumidores.

El uso de los decimales tuvo dos consecuencias. La primera fue que los márgenes se estrecharon, lo que benefició a los consumidores. La segunda fue que muchos creadores de mercado tuvieron que dejar el negocio. Los márgenes eran demasiado estrechos para que pudieran ganarse la vida. Su reemplazo fueron más plataformas de Redes de Comunicación Electrónica (ECN). Brotaban por todas partes. No había coordinación, simplemente toneladas y toneladas de datos. A los corredores les resultaba extremadamente difícil garantizar la obtención del mejor precio para sus clientes, debido al número creciente de sitios de ECN.

Poco después se implementó un nuevo conjunto de normas llamado Sistema Nacional de Regulación del Mercado, o Reg NMS. Este conjunto de normas exige a los agentes de bolsa ingresar el mejor precio disponible antes de ejecutar una operación, so pena de incurrir en multas y sanciones. La orden de que todos los agentes de bolsa tuvieran acceso a cada cotización disponible obligaba indirectamente a que todos los sitios de negociación estuviesen interrelacionados. De nuevo, los reguladores consideraron que esto solo podría beneficiar al público, pero creó dificultades para los que negociaban para el consumidor. La primera consistió en que todos los agentes de bolsa que comerciaban para el público tenían que supervisar permanentemente miles de acciones en cientos de lugares. Las transacciones que se enviaban para su ejecución a menudo eran puestas en colas de espera, pero si durante la espera los precios cambiaban, tenían que enviarse a otro lugar donde obtuvieran el mejor precio. Allí, se repetía el mismo proceso. Podía pasar mucho tiempo antes de concretar la transacción de las órdenes y el precio de la espera podría resultar dispendioso dado que las órdenes en la parte superior de la lista obtenían el mejor precio y la transacción pasaba entonces a otra cola que ofrecía un buen precio pero no el más ventajoso. A menos que uno supiera cómo ingresar una orden en el lenguaje exacto que las redes de computadoras entendían, la ejecución de las transacciones podría darse a precios diferentes de los esperados. Pero había un grupo que comprendía la importancia de esto y la manera de manejar sus órdenes para que no rebotaran: los corredores electrónicos que llevaban un montón de negocios a estas plataformas electrónicas.

En tanto que los mercados se rediseñaban, los corredores crecían en sofisticación. Sus equipos fueron reemplazados por los más rápidos que existían. Los programadores afinaron programas llamados algoritmos (llamados informalmente en inglés algos), sucesiones de varios pasos lógicos analizados en lenguaje informático. Un algoritmo simple podría ser: “Si el precio es superior a 10,25 entonces ofrezca para la venta 100 acciones. Si el precio es inferior a 10,00 ofrezca comprar 100 acciones”.

Los corredores que utilizaban algoritmos podían aprovechar las diferencias de precios entre las miles de cotizaciones disponibles pendientes de ser procesadas.

Con el tiempo, los algoritmos se hicieron mucho más complejos para permitir su adaptación a múltiples situaciones. Dado que muchos de los corredores generaban el volumen que las redes de comunicación electrónicas necesitaban, conocían también de primera mano el tipo de ingreso de pedidos que podría saltar a la cabeza de la cola, y sabían cuándo comprar a un precio más bajo y luego vender al que esperaba detrás por un precio mayor. En segundo lugar, al ofrecer compra y venta, el corredor electrónico creaba liquidez y, por tanto, podía ganarse la tarifa de liquidez de 0,003 centavos por acción que el creador de mercado recibiría si se concretaba la orden de compra o de venta. Al analizar todas las cotizaciones disponibles, los algoritmos se aseguraban de que la oferta para comprar o vender fuera la mejor disponible, incluso si el algoritmo simplemente no obtenía ningún beneficio de la transacción. El truco consistía en ofrecer liquidez en el mercado y ganar la tarifa. No había riesgo y era altamente lucrativo, si se lograba comerciar mil millones de acciones al día.

Esto significaba que los corredores electrónicos necesitaban velocidad, la más alta disponible. Codiciaban la “baja latencia”. La latencia es el tiempo que se necesita para llevar una orden desde una computadora hasta las redes de comunicación electrónicas que la acoplan y ejecutan la transacción. Las bolsas y sus redes de comunicación electrónica comenzaron a alquilar espacio en servidores próximos a sus propios servidores, de manera que las firmas de corredores que desearan una ejecución más rápida de las operaciones pudieran hacerlo. Esto también requería que los algoritmos que ofrecían liquidez, saltaban las colas, o ejecutaban estrategias de negociación fueran totalmente automatizados. Algunas instituciones comerciales investigaron el área del aprendizaje automático (ver: “Inteligencia Artificial (IA) y lenguaje”) y llevaron la complejidad de los algoritmos a un nuevo nivel. Los algoritmos se programaron para cambiar sus ejecuciones ante las condiciones cambiantes del mercado.

Las instituciones, por su parte, no se quedaron quietas durante este tiempo. Necesitaban comprar y vender un gran número de acciones sin tener que pagar los precios más altos que los algoritmos salta-colas imponían al comprar primero las acciones y revenderlas luego a la institución por un precio mayor. Construyeron sistemas informáticos propios y crearon diferentes algoritmos que dividían las órdenes grandes en partes pequeñas y las comercializaban a través de múltiples lugares bajo patrones aleatorios.4

Si esto nos sonara al Viejo Oeste, o a algún tipo de guerra cibernética a un nivel micro entre sistemas informáticos y programas que se baten a duelo, no estaríamos equivocados. El volumen se disparó. A la larga, los principales bancos de inversión, como Goldman Sachs, lo mismo que otras instituciones financieras, vieron el potencial de ganancias y compraron por grandes sumas las ECN existentes o construyeron sus propias redes.

Pero había un problema. Lo que se conoce como incertidumbre. La incertidumbre es la pesadilla de las negociaciones de alta frecuencia porque aumenta la volatilidad (el movimiento del precio por unidad de tiempo). Es como el ruido en una línea de teléfono. Cuando hay demasiado ruido es imposible recibir una señal. Se oye solamente la energía estática. Cuando la volatilidad se eleva por encima de un cierto punto, los algoritmos pueden cometer errores y, por tanto, tienen instrucciones de dejar de operar inmediatamente y cancelar todas las propuestas y ofertas.

Lo que esto significa en el nivel macro es que ante una conmoción importante que genere incertidumbre y gran volatilidad, las negociaciones de alta frecuencia desactivarán su sistema de negociación. ¿Qué pasa con toda la liquidez que se ofrecía hace apenas unos segundos? Se evapora. ¿Qué pasa con los precios de las acciones? Caen. Caen con fuerza.

Conclusiones y observaciones:

  1. Las regulaciones, incluso las que se establecen con las mejores intenciones, a menudo pueden conducir a consecuencias imprevistas. Esto no quiere decir que no deba existir ninguna regulación, sino que quienes regulan deben ser conscientes de que a veces pueden crear tantos problemas como los que resuelven. Como regla general, la regulación es mejor en dosis pequeñas.
  2. Frente al señuelo del dinero es probable que la competencia entre las negociaciones de alta frecuencia se intensifique y lleve a algunos a quebrar. Hay que tener en cuenta que el volumen de este tipo de transacciones en la NYSE ha disminuido del 60-70 % en 2006 al 50 % en 2012.5 Es posible que el volumen global haya alcanzado su pico, aunque es muy poco probable que este tipo de negociaciones desaparezca a corto plazo. En este momento son necesarias bajo el marco vigente del mercado, simplemente porque las bolsas necesitan el volumen que proporcionan para sobrevivir como entidades con fines de lucro. Nota: Las bolsas no fueron siempre compañías con ánimo de lucro negociables en la bolsa y que dependieran del volumen para mantener su viabilidad. La Bolsa de Nueva York fue reconocida como una organización sin fines de lucro en 1971, pero se convirtió en una entidad con fines de lucro en 2005.6
  3. De la misma manera, para obtener utilidades, las negociaciones de alta frecuencia necesitan a las bolsas y las tarifas a los creadores de liquidez que estas ofrecen. Es una relación simbiótica. Una no puede existir sin la otra.
  4. Como una observación, frente a tantas negociaciones de alta frecuencia que compiten, es probable que el dinero fácil ya haya sido captado. A las nuevas transacciones les resultará más difícil obtener los beneficios necesarios para justificar el esfuerzo y el gasto que requieren los nuevos sistemas. Por supuesto, si un grupo de negociaciones de alta frecuencia logra crear sistemas que operen con velocidades de nanosegundos, tendrá entonces la ventaja, y el ciclo se repetiría. De cualquier manera, hay un límite para la velocidad de transmisión de datos y ese límite es la velocidad de la luz.
  5. La teoría de la complejidad señala que las entidades altamente conectadas en red son propensas a crear vaivenes amplios del mercado similares a los cambios de la población en las relaciones depredador-presa. A pesar de esta tendencia, este tipo de redes son extremadamente robustas y tienden a inclinarse hacia el otro lado, en lugar de simplemente colapsar. El derrumbe del mercado de Estados Unidos en el verano de 2010 es un ejemplo.
  6. Volviendo otra vez a la teoría de la complejidad, es probable que la volatilidad se incremente en el futuro. Esto resalta el factor más interesante y desconocido de las negociaciones de alta frecuencia: reducen el margen entre la oferta y demanda, lo que amortigua la volatilidad a corto plazo. Sin embargo, si la volatilidad es un fenómeno natural inherente a toda la interacción de un sistema, similar al ruido en las señales o a las vibraciones de las moléculas, la amortiguación en un sentido puede conducir a una mayor volatilidad en otro, igual que cuando se toman dos rebanadas de pan con mermelada en el medio y se presionan. La mermelada se escurre por los lados y ensucia todo.
  7. En sí mismas, las transacciones de alta frecuencia no son malas; operan a una escala tan pequeña de tiempo que no suelen afectar a las personas que negocian sobre un marco de tiempo más extendido, con algunas excepciones. Los algoritmos pueden crear desequilibrios en las órdenes al generar muchas órdenes grandes por encima, o por debajo del mercado, y estas pueden llevar a otros corredores a anticipar erróneamente un movimiento al alza o a la baja. Las órdenes se cancelan entonces cuando el mercado comienza a moverse. Esto es un engaño conocido en inglés como spoofing y es ilegal.8 Aunque esto representa un peligro, la estrecha relación de respaldo mutuo entre las negociaciones de alta frecuencia y las bolsas es tal vez el mayor. El interés especial de mantener la relación a cualquier costo podría resultar difícil de desentrañar en caso de ser necesario. En segundo lugar, si hay que hacer una elección entre el público y la relación, no es difícil predecir hacia donde se enfocará la decisión.
  8. Los corredores institucionales también se han metido en el juego de los algoritmos, diseminando sus órdenes a través de múltiples lugares, en distintos momentos y en tamaños pequeños, para reducir así el impacto de las negociaciones que saltan la cola y aprovechar las órdenes grandes comprando primero y vendiendo luego a la gran orden que viene detrás. El campo de juego es más equilibrado que antes.
  9. Las regulaciones son siempre una espada de Damocles, que pende sobre las cabezas de las negociaciones de alta frecuencia. Lo que se ha dado puede ser arrebatado.

Las negociaciones de alta frecuencia representan un factor en el juego de las inversiones/transacciones y deben comprenderse a cabalidad, pero no son la pieza clave. Las intervenciones del Banco Central para preservar las tendencias del mercado frente a las crecientes proporciones de la deuda y los indicadores económicos tibios son el elefante en la habitación. Comparativamente, las negociaciones de alta frecuencia son poca cosa.

Sin embargo, si uno se sienta en una mesa de póquer, lo mejor es saber quiénes son los contrincantes.

 


  1. Patterson, S. (2012) Dark Pools, the Rise of the Machine Traders and the Rigging of the U.S. Stock Market. Nueva York, N.Y.: Crown Business
  2. A. (2015). Virtu Financial, Inc. Form 10-Q Informe trimestral. Consultado el 11 de septiembre de 2015 en http://files.shareholder.com/downloads/AMDA-2PR09O/687627359x0xS1104659-15-60023/1592386/filing.pdf
  3. Harris, L. (2003). Trading and Exchanges: Market Microstructure for Practitioners. Nueva York, N.Y.: Oxford University Press, Estados Unidos.
  4. Patterson, cit.
  5. A. (2012). Declining U.S. High-Frequency Trading. The New York Times. Consultado el 11 de septiembre de 2015 en http://www.nytimes.com/interactive/2012/10/15/business/Declining-US-High-Frequency-Trading.html?_r=0.|
  6. A. (2015). NYSE History, The History of the New York Stock Exchange. Consultado el 11 de septiembre de 2015 en http://www.stock-options-made-easy.com/nyse-history.html.
  7. Page, S. E. (2009). Understanding Complexity. Chantilly, V.A.: The Teaching Company
  8. Levine, M. (2015) Why is Spoofing Bad? BloombergView. Consultado el 11 de septiembre de 2015 en http://www.bloombergview.com/articles/2015-04-22/why-is-spoofing-bad-

Si desea inscribirse en nuestro artículo mensual, por favor haga clic aquí.

¿Interesado en reproducir uno de nuestros artículos? Consulte nuestros requisitos de reproducción.

© 2015 Dynamic Doingness, Inc. Todos los derechos reservados. Ninguna parte de esta publicación puede ser reproducida sin el permiso escrito del autor.

  1. Craig Houchin
    Craig Houchin09-18-2015

    Great article. Very informative and educational. Thanks.

    • Ivan
      Ivan10-01-2015

      Thanks, Craig I hope it helps. It is a confusing area. To add one point: Virtu is now heavy in the currency markets.

  2. Silvia
    Silvia09-18-2015

    This is a field I have, literally, no knowledge of and consequently little understanding. However, this article gave a narrative of this
    evolution, which I though is a piece of history, and somehow gave me a clear glance of the changes of technology as related
    to stock markets and other enterprises. What I like the most is that Ivan writes clear and to the point thus making it possible to
    assimilate information that one may not know nothing about it. Thank you for spending the time in doing so and I await the next
    ones. Silvia LL

  3. Gilles
    Gilles09-28-2015

    It was a pleasure to read this article : History, money & speed of light …

    Thank you for your perspicacity.

Leave a Reply