Hva er Apache Hadoop?

Apache Hadoop er navnet på et sett med store datalgoritmer, distribuert lagring og distribuert prosesseringsprogramvare opprettet av Apache Software Foundation. Den er designet for å støtte applikasjoner med høy volumdatatjeneste; Automatisk håndtering av maskinvarefeil uten tap av service.

Hadoop bruker et distribuert filsystem kjent som HDFS, og programvare for behandling av store datasett som kalles MapReduce. Ekstremt store filer deles i stykker, vanligvis 64 eller 128 MB hver. Programvaren er for det meste skrevet i Java, med noen lavere nivå kode skrevet i C.

Apache server, Big data, Service, Programvarebetingelser