Hadoop bruker et distribuert filsystem kjent som HDFS, og programvare for behandling av store datasett som kalles MapReduce. Ekstremt store filer deles i stykker, vanligvis 64 eller 128 MB hver. Programvaren er for det meste skrevet i Java, med noen lavere nivå kode skrevet i C.
Apache server, Big data, Service, Programvarebetingelser