12.16 Medindo fluxo de informação

12.16.1 Informação

12.16.2 Entropia (de Shanon)

12.16.3 Divergência de Kullback-Leibler

12.16.4 Entropia de Rényi

(Rényi 1961, 549) define a entropia de Rényi de ordem \(\alpha\) da distribuição discreta \(\mathcal{P} = (p_1,\ldots,p_n)\) por \[\begin{equation} H_{\alpha} = \frac{1}{1-\alpha} \log_2 \left( \sum_{i=1}^{n} p_{i}^{\alpha} \right) \tag{12.52} \end{equation}\] para \(\alpha>0\) e \(\alpha \ne 1\), onde a medida de entropia de Shannon é o limite quando \(\alpha \rightarrow 1\).

12.16.5 Entropia de transferência

In conclusion, the new transfer entropy is able to detect the directed exchange of information between two systems. (Schreiber 2000, 464)

Transfer entropy (…) is a nonparametric measure of asymmetric information transfer between time series. (Behrendt et al. 2019, 2)

(Bossomaier et al. 2016) apresentam uma introdução à entropia de transferência, ou fluxo de informação, proposta por (Schreiber 2000). (Behrendt et al. 2019) apontam que o método de entropia de transferência foi aplicado em diversas áreas como engenharia biomédica, neurociência, ou para extrair informações de dados de mídia social. Há exemplo específicos como

(Schreiber 2000, 462) define taxa de entropia como \[\begin{equation} h_I = -\sum p(i_{n+1},i_{n}^{(k)}) \, \log p(i_{n+1}|i_{n}^{(k)}) \tag{12.53} \end{equation}\] onde \(i_{n}^{(k)} = (i_{n}, \ldots, i_{n-k+1})\).

O autor argumenta que como \(p(i_{n+1}|i_{n}^{(k)}) = p(i_{n+1}^{(k+1)})/p(i_{n}^{(k)})\), “esta é apenas a diferença entre as entropias de Shannon dos processos dados por \(k+1\) e \(k\) vetores de atraso dimensionais construídos a partir de \(I\)”: \[\begin{equation} h_I = H_{I^{(k+1)}} - H_{I^k} \tag{12.54} \end{equation}\]

(Schreiber 2000, 462) mede o quão incorreta é a suposição de que o processo \(J\) não tem qualquer influência nas probabilidades de transição do processo \(I\) através da entropia de transferência (de Shannon) \[\begin{equation} T_{J \rightarrow I}(k,l) = \sum p(i_{n+1}, i_{n}^{(k)}, j_{n}^{(l)}) \, \log \frac{p(i_{n+1} | i_{n}^{(k)}, j_{n}^{(l)})}{p(i_{n+1}, i_{n}^{(k)})} \tag{12.55} \end{equation}\] onde dentre “[a]s escolhas mais naturais para \(l\)\((l=k\) ou \(l=1)\) prefere \(l=1\) “por motivos computacionais”.

(Jizba, Kleinert, and Shefaat 2012) formulam o “conceito de entropia de transferência de Rényi como uma medida de informação que é transferida apenas entre certas partes das distribuições subjacentes” a partir das escort distributions de (Beck and Schögl 1993, 53) na forma \(\phi_{\alpha}(j) = \frac{p^{\alpha}(j)}{\sum_i p^{\alpha}(i)}\), com \(\alpha > 0\). \[\begin{equation} T_{J \rightarrow I}^{\text{Rényi}}(k,l) = \frac{1}{1-\alpha} \log \left( \frac{\sum_i \phi_{\alpha}(i_{n}^{(k)}) p^{\alpha}(i_{n+1}|i_{n}^{(k)})}{\sum_{i,j} \phi_{\alpha}(i_{n}^{(k)},j_{n}^{(l)}) p^{\alpha}(i_{n+1}|i_{n}^{(k)},j_{n}^{(l)})} \right) \tag{12.56} \end{equation}\] Ao contrário da entropia de transferência de Shannon, a entropia de transferência de Rényi pode resultar em valores negativos, indicando que conhecer o histórico de \(J\) revela um risco ainda maior do que seria indicado se apenas se conhecesse o histórico de \(I\).

(Marschinski and Kantz 2002, 278) propõem a entropia de transferência efetiva (effective transfer entropy) “como a diferença entre a entropia de transferência usual calculada para a série empírica e a entropia de transferência calculada para a mesma série, mas com a série J embaralhada” (shuffled) na forma \[\begin{equation} ET_{J \rightarrow I}(k,l) = T_{J \rightarrow I}(k,l) - T_{J_{\text{shuffled}} \rightarrow I}(k,l) \tag{12.57} \end{equation}\] Conforme vinheta, “o embaralhamento implica em desenhar aleatoriamente valores da série temporal \(J\) e realinhá-los para gerar uma nova série temporal. Este procedimento destrói as dependências da série temporal \(J\), bem como as dependências estatísticas entre \(J\) e \(I\)”, podendo ser usadas como um estimador para o viés induzido por esses pequenos efeitos de amostra.

Exercício 12.37 Mostre que \(i_{n+1}^{(k+1)} = (i_{n+1}, \ldots, i_{n-k+1})\).

12.16.6 Biblioteca RTransferEntropy

A biblioteca RTransferEntropy (Behrendt et al. 2019) permite quantificar e testar o fluxo de informação entre duas séries temporais com entropias de transferência de Shannon e Rényi. Conforme vinheta, “[u]m aspecto central do pacote fornecido é permitir inferência estatística e testes de hipóteses no contexto da entropia de transferência”. Note a equivalência \(\alpha \equiv q\).

Exemplo 12.32 Adaptado da vinheta de RTransferEntropy.

library(RTransferEntropy)
# simulando
set.seed(42)
n <- 2500
x <- rep(0, n + 1)
y <- rep(0, n + 1)

for (i in 2:(n + 1)) {
  x[i] <- 0.2 * x[i - 1] + rnorm(1, 0, 2)
  y[i] <- x[i - 1] + rnorm(1, 0, 2)
}
x <- x[-1]
y <- y[-1]

# gráficos
plot(x[1:(n-1)],y[2:n], xlab = 'X_t-1', ylab = 'Y_t')

plot(x,y, xlab = 'X_t', ylab = 'Y_t')

plot(x[2:n],y[1:(n-1)], xlab = 'X_t', ylab = 'Y_t-1')

# calculando entropia de transferência
library(future)
plan(multisession)
shannon_te <- transfer_entropy(x, y, seed = 42)
## Shannon's entropy on 8 cores with 100 shuffles.
##   x and y have length 2500 (0 NAs removed)
##   [calculate] X->Y transfer entropy
##   [calculate] Y->X transfer entropy
##   [bootstrap] 300 times
## Done - Total time 3.18 seconds
shannon_te
## Shannon Transfer Entropy Results:
## -----------------------------------------------------------
## Direction        TE   Eff. TE  Std.Err.   p-value    sig
## -----------------------------------------------------------
##      X->Y    0.1137    0.1109    0.0012    0.0000    ***
##      Y->X    0.0044    0.0013    0.0012    0.1033       
## -----------------------------------------------------------
## Bootstrapped TE Quantiles (300 replications):
## -----------------------------------------------------------
## Direction      0%     25%     50%     75%    100%
## -----------------------------------------------------------
##      X->Y  0.0008  0.0020  0.0026  0.0034  0.0070
##      Y->X  0.0006  0.0020  0.0027  0.0036  0.0083
## -----------------------------------------------------------
## Number of Observations: 2500
## -----------------------------------------------------------
## p-values: < 0.001 '***', < 0.01 '**', < 0.05 '*', < 0.1 '.'

12.16.7 Biblioteca copent

https://pypi.org/project/copent/

Referências

Beck, Christian, and Friedrich Schögl. 1993. Thermodynamics of Chaotic Systems: An Introduction. Cambridge University Press. https://ui.adsabs.harvard.edu/abs/1995tcs..book.....B%2F/abstract.
Behrendt, Simon, Thomas Dimpfl, Peter Franziska J., and Zimmermann David J. 2019. RTransferEntropy — Quantifying information flow between different time series using effective transfer entropy.” SoftwareX 10 (100265): 1–9. https://doi.org/10.1016/j.softx.2019.100265.
Bossomaier, Terry, Lionel Barnett, Michael Harré, Joseph T Lizier, Terry Bossomaier, Lionel Barnett, Michael Harré, and Joseph T Lizier. 2016. An Introduction to Transfer Entropy. Springer. https://link.springer.com/content/pdf/10.1007/978-3-319-43222-9_4.pdf.
Dimpfl, Thomas, and Franziska Julia Peter. 2013. “Using Transfer Entropy to Measure Information Flows Between Financial Markets.” Studies in Nonlinear Dynamics and Econometrics 17 (1): 85–102. https://edoc.hu-berlin.de/server/api/core/bitstreams/55ce7125-b018-45f7-bad5-dd9a1339af5d/content.
Hartley, Ralph VL. 1928. “Transmission of Information 1.” Bell System Technical Journal 7 (3): 535–63. https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=6769394&casa_token=LB6Toqd-8FgAAAAA:B_rX3cJD7R14Mo4wJdcU6KLwbDGPtXwZR6jxxPur9mClR2eye0h1F_Xe6hW6mYaxLgni6A9xmLE&tag=1.
Jizba, Petr, Hagen Kleinert, and Mohammad Shefaat. 2012. “Rényi’s Information Transfer Between Financial Time Series.” Physica A: Statistical Mechanics and Its Applications 391 (10): 2971–89. https://doi.org/10.1016/j.physa.2011.12.064.
Marschinski, Robert, and Holger Kantz. 2002. “Analysing the Information Flow Between Financial Time Series: An Improved Estimator for Transfer Entropy.” The European Physical Journal B-Condensed Matter and Complex Systems 30: 275–81. https://link.springer.com/content/pdf/10.1140/epjb/e2002-00379-2.pdf.
Rényi, Alfréd. 1961. “On Measures of Entropy and Information.” In Proceedings of the Fourth Berkeley Symposium on Mathematical Statistics and Probability, Volume 1: Contributions to the Theory of Statistics, 4:547–62. University of California Press. https://static.renyi.hu/renyi_cikkek/1961_on_measures_of_entropy_and_information.pdf.
Schreiber, Thomas. 2000. “Measuring Information Transfer.” Physical Review Letters 85 (2): 461. https://journals.aps.org/prl/pdf/10.1103/PhysRevLett.85.461?casa_token=fXEkHJaaGv0AAAAA%3A-nLKqxMEONKfGJ6fTFJt_zRUiKVwLrutNiNT1VGAH43bl4_Z1o4xY9_MFms01ter7khBSGoDYKDwwAk.
Shannon, Claude E. 1948. “A Mathematical Theory of Communication.” The Bell System Technical Journal 27 (3): 379–423. https://doi.org/10.1002/j.1538-7305.1948.tb01338.x.