Le didacticiel Apache Spark fournit des concepts de base et avancés de Spark. Notre tutoriel Spark est conçu pour les débutants et les professionnels.
Spark est un moteur d'analyse unifié pour le traitement de données à grande échelle comprenant des modules intégrés pour SQL, le streaming, l'apprentissage automatique et le traitement de graphiques.
générer un nombre aléatoire en Java
Notre didacticiel Spark comprend tous les sujets relatifs à l'introduction d'Apache Spark avec Spark, à l'installation de Spark, à l'architecture Spark, aux composants Spark, au RDD, aux exemples Spark en temps réel, etc.
Qu’est-ce que Spark ?
Apache Spark est un framework informatique de cluster open source. Son objectif principal est de gérer les données générées en temps réel.
Spark a été construit sur Hadoop MapReduce. Il a été optimisé pour fonctionner en mémoire alors que des approches alternatives telles que MapReduce de Hadoop écrivent des données vers et depuis les disques durs des ordinateurs. Ainsi, Spark traite les données beaucoup plus rapidement que les autres alternatives.
Histoire d'Apache Spark
Le Spark a été lancé par Matei Zaharia à l'AMPLab de l'UC Berkeley en 2009. Il a été open source en 2010 sous une licence BSD.
En 2013, le projet a été acquis par Apache Software Foundation. En 2014, Spark est devenu un projet Apache de premier niveau.
Caractéristiques d'Apache Spark
Utilisation de Spark
Prérequis
Avant d'apprendre Spark, vous devez avoir une connaissance de base de Hadoop.
Public
Notre tutoriel Spark est conçu pour aider les débutants et les professionnels.
Problèmes
Nous vous assurons que vous ne rencontrerez aucun problème avec ce tutoriel Spark. Cependant, en cas d'erreur, veuillez signaler le problème dans le formulaire de contact.
cuillère à café contre cuillère à soupe