Q:
Je velká data univerzálním řešením pro všechny?
A:V rámci myšlenky na celkový datový ekosystém nebo průmysl jsou aplikace strategií velkých dat specifické pro potřeby konkrétního podniku nebo organizace. Jednou z největších chyb, kterou vedoucí pracovníci a další odborníci dělají, je zaujmout obecný přístup k velkým datům a pokusit se přizpůsobit systémy do dříve používané šablony.
Filozofie velkých dat má co do činění s velmi cíleným a mikromanažovaným využitím velkých zdrojů informací. Například společnost, která má tisíce a tisíce zákazníků, zahájí velký datový projekt, který využije všechny informace, které má o těchto zákaznících - jejich jména, kde žijí, co si dříve koupili atd. Výsledky však mají více se týkají nastavení specifických struktur pro manipulaci s daty a reportování než s pouhým shromažďováním a „spuštěním“ těchto rozsáhlých datových souborů.
Součástí výzev velkých dat je, že vyžaduje specializovanější hardwarové procesy. Společnosti často používají open-source systémy, jako je Apache Hadoop, a konkrétní související nástroje, jako je MapReduce, aby získaly velká datová řešení ve hře. To vyžaduje další technické know-how, než jen sestavení tabulky aplikace Microsoft Access nebo provádění jiné jednodušší databázové technologie.
Aby byla velká data efektivní, musí se společnosti podívat na implementaci a jak zabránit narušení svých běžných obchodních aktivit. Aby to bylo co nejefektivnější, musí se přesně podívat, které sady dat pro ně budou nejužitečnější. Například, pokud prodejci nebo jiní mohou dělat to, co potřebují udělat s jednoduchou zprávou pouze příjmení, států a telefonních čísel, nemá smysl zkoušet spouštět rozsáhlejší data v systému a pokoušet se shromažďovat a prezentovat jiné identifikátory nebo klíčové informace.
Efektivita, snadná implementace a náklady vedou ke vzniku velkých datových řešení specifických pro společnost. Tyto inovace rozhodně závisí na konkrétním obchodním modelu a na problémech, které je třeba vyřešit.