Apache Hadoop | ||
---|---|---|
Información general | ||
Tipo de programa | Sistema de archivos distribuido | |
Autor |
| |
Desarrollador | Apache Software Foundation | |
Lanzamiento inicial | 1 de abril de 2006 | |
Licencia | Apache License 2.0 | |
Estado actual | Activo | |
Idiomas | inglés | |
Información técnica | ||
Programado en | Java | |
Plataformas admitidas | Java | |
Versiones | ||
Última versión estable | 3.4.0 ( 17 de marzo de 2024 (10 meses y 10 días)[1]) | |
Enlaces | ||
Apache Hadoop es un entorno de trabajo para software, bajo licencia libre, para programar aplicaciones distribuidas que manejen grandes volúmenes de datos (big data).[2] Permite a las aplicaciones trabajar con miles de nodos en red y petabytes de datos. Hadoop se inspiró en los documentos de Google sobre MapReduce y Google File System (GFS).
Apache Hadoop es un entorno de trabajo de software de código abierto que permite el procesamiento y análisis distribuido de grandes volúmenes de datos. Hadoop se ha convertido en un proyecto colaborativo dentro de la comunidad de desarrollo de Apache, con Yahoo! destacando como uno de los mayores contribuyentes y usuarios de esta tecnología.