Otázka: Je Hadoop pro každého?
Odpověď: Prostředek pro správu dat Hadoop s otevřeným zdrojovým kódem Apache a související nástroje se stávají vlivem ve světě velkých dat. Ale v závodě o přijetí novějších, modernějších IT řešení se společnosti ptají, zda je Hadoop univerzálním nástrojem, který by měl být široce aplikován na velké datové a analytické procesy.
Ve skutečnosti existuje několik úvah o tom, zda systém z implementace Hadoop hodně těží. Jedním z nich je, zda jsou velká data pro toto odvětví relevantní. Jinými slovy, zda podnik poběží při získávání a analýze extrémně velkých datových souborů, datových souborů větších, než je možné analyzovat pomocí tradiční relační databáze.
Kromě toho si společnosti mohou vybrat mezi Hadoopem a dalšími proprietárními nástroji, které mohou vyžadovat méně vlastních technických dovedností. Některé další technické společnosti vytvářejí podobné velké datové nástroje, které mohou mít intuitivnější rozhraní nebo zkratky, aby méně zkušeným uživatelům umožnili více pracovat s velkými daty.
Současně existuje shoda, že většina velkých datových projektů může z Hadoop těžit s dostatečnou správou. Nástroje jako design skladu Apache Hive a syntaxe programování Apache Pig pro velká data rozšiřují možnosti, které může Hadoop dělat. Další pokroky, jako Hadapt a MapR, zvyšují transparentnost syntaxe a používání Hadoopu pro širokou škálu uživatelů, jinými slovy, začínají odstraňovat problém „techiness“.
Obecně se musí podnik zabývat tím, kolik velkých dat používá a odkud pocházejí. Vedoucí a vedoucí pracovníci musí zvážit, kdo bude pracovat na zapojených IT projektech a jejich dovednosti a pozadí. Musí pochopit rozdíl mezi implementací různých nástrojů velkých dat. To pomůže vedoucím týmům pochopit, zda je Hadoop pro jejich projekty to pravé.
