p>Inženýr Costas Bekas od IBM sdělil, že matematický algoritmus vyvinutý v laboratořích IBM v Curychu je schopen třídit, korelovat i analyzovat miliony náhodných datových sad, což je úkol, který je dnes doménou výhradně superpočítačů a i těm trvají podobné úkoly dny.
Algoritmus má délku zhruba něco málo pod 1 tisíc řádek kódu a bude klíčovým faktorem na cestě za spočítáním vzorců či trendů užití kalkulovaných z různých zdrojů (nevyjímaje ani tradiční senzory). Algoritmus je univerzální, to znamená, že jej půjde použít prakticky kdekoliv - jako typický příklad bylo zmíněno počítání na finančních trzích či analýza „syrových“ senzorových dat.
Největší přínos pro běžné firmy i vědecké organizace vidí IBM v tom, že podobné analýzy nyní půjde provádět rychleji a tím pádem i efektivněji a levněji. A jak dopadl příklad z praxe? Systém Blue Gene/P Solution (4. nejrychlejší stroj na světě s téměř 300 tisíci procesory řady IBM Power) díky němu prošel 9 TB dat za pouhých 20 minut. Pokud bychom chtěli stejným způsobem analyzovat srovnatelné množství dat bez tohoto algoritmu, daný stroj by na něm strávil rovný den.
Důvod, proč se IBM rozhodlo v tomto směru bádat, komentoval výzkumník následovně: „Efektivní analýza stále větších datových skupin vyžaduje nové matematické techniky, jež zredukují výpočetní komplexnost.“ A poté ještě uvedl, že algoritmus je výsledkem cca 2leté práce. Předpokládáme, že se algoritmus stane brzy součástí nějakého analyzačního softwaru typu IBM SPSS.
- Zdroj: zde