El Ratio de Treynor es un indicador que nos mide la diferencia existente entre la rentabilidad que la cartera o fondo obtiene sobre el activo libre de riesgo por unidad de riesgo, considerando el riesgo como un coeficiente beta.

El activo libre de riesgo que se suele utilizar es un bono del estado. Dependiendo de donde nos encontremos, usaremos uno u otro: Bund Alemán (en el caso de Europa) o el bono del Tesoro Americano (para el caso de Estados Unidos).

El Ratio de Treynor mide el exceso de rentabilidad ganado por unidad de riesgo sistemático (llamado beta). El exceso de rentabilidad es la diferencia que hay entre la rentabilidad media de la cartera y la tasa de riesgo del activo libre.
El riesgo sistemático es el que afecta al mercado en su totalidad a través de Beta. En cambio, el riesgo no sistemático es el riesgo que afecta al valor o acción en cuestión. Juntos, forman el riesgo total.

¿Cómo se calcula el Ratio de Treynor?

TR = (Rp-Rf) / βp
Siendo:
  • Rp: Rentabilidad de cartera
  • Rf: Rentabilidad del activo libre de riesgo
  • βp: Beta de cartera

Por último, vamos a hablar de diferencias entre el Ratio de Sharpe y el de Treynor. La principal similitud que encontramos entre ambos es que son ratios de performance; es decir, que sirven para medir cómo se comporta un fondo de inversión y establecer qué carteras son mejores que otras.

Para las carteras que están bien diversificadas el riesgo y, por tanto, el ranking de carteras aplicando un ratio u otro debe ser el mismo. Para carteras no diversificadas, el ranking varía.