Big Data

Algoritmi avanzati per l’analisi delle autocorrelazioni di big data

Gli algoritmi standard di analisi di Big Data si basano su principi deduttivi e induttivi: all’insieme di dati, si associa generalmente un modello distributivo sul quale vengono realizzate le deduzioni matematiche. Per riadattare i risultati del modello all’insieme di informazioni reale, è però necessario ideare una serie di coefficienti di affidabilità, che rimangono di determinazione aleatoria. Benché queste analisi possano essere molto raffinate, l’interpretazione dei loro risultati può variarne completamente l’affidabilità, o addirittura il senso.

Attualmente, non esistono precedenti strutturali nell’utilizzo di grossi volumi di informazioni per la deduzione di trend e correlazioni nascoste; tuttavia, i pochi esempi a disposizione ne dimostrano l’enorme potenziale applicativo nei settori dell’alta finanza e del trading, nel campo assicurativo e nel marketing avanzato.

La soluzione di hte

Nell’ambito di Big Data, HTE sta sviluppando una serie di nuovi algoritmi in grado di determinare le leggi di autocorrelazione delle informazioni in maniera deduttiva, senza assoggettare l’analisi a un modello distributivo astratto ma interpretando le informazioni là dove si trovano: nei dati.

Questo approccio innovativo, permette la valutazione e gestione del rischio estrapolando dalla realtà i modelli matematici necessari; ha originato lo sviluppo di concept di robotrader per la negoziazione sul mercato Forex; opera per stabilire le variabili di correlazione nella GDO, indicando modalità di promozione grazie a modelli matematici.