Onze excuses, deze website ondersteunt de website print functie niet.

Big Data en cloud computing

Big data platformsDe opkomst van Big Data zou ondenkbaar zijn geweest zonder de on-demand mogelijkheden van cloud computing. Dankzij zowel virtualisatie als cloud computing is het nu mogelijk de capaciteit op te schalen en de kosten van opslag en verwerking te beperken. Compute nodes en opslagsystemen binnen een particuliere of publieke cloud stellen gebruikers in staat grote hoeveelheden gegevensstromen te analyseren die in de tijd fluctueren en soms explosief kunnen toenemen. Cloud computing biedt de mogelijkheid extra virtuele machines in te zetten om ervoor te zorgen dat de analyse van Big Data ook bij ongebruikelijk grote gegevensverzamelingen geen vertraging oploopt, zonder dat het nodig is de capaciteit van de database te vergroten of permanent dure hardware toe te voegen.

Terwijl virtualisatie de onderliggende hardware abstraheert om een hoger niveau diensten te bieden, zoals het klonen van een gegevensnode, een grote beschikbaarheid van een bepaalde node of door de gebruiker gestuurde provisioning, bieden de clouds een verzameling gevirtualiseerde hardware met aanvullende diensten zoals extra middelen op verzoek (IaaS), diverse computingplatforms (PaaS) of softwarecatalogi (SaaS). Een enkele Hadoop image is eenvoudig te klonen en de benodigde opslag- en rekencapaciteit kunnen naar behoefte worden uitgebreid. Publieke clouds verschillen van particuliere doordat de schaalvoordelen die zij bieden ten koste gaan van de beheersing, privacy, beveiliging of bewaring. Voorbeelden van public cloud-mogelijkheden voor Big Data zijn de Amazon Elastic MapReduce en de solutions-google-compute-engine-cluster-for-hadoop.

19