site:enseignement:master:bdle:tmes:spark
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| site:enseignement:master:bdle:tmes:spark [07/12/2017 12:00] – [Installation de Spark (à réaliser une seule fois)] hubert | site:enseignement:master:bdle:tmes:spark [22/10/2019 18:05] (Version actuelle) – [Utilisation un notebook Zeppelin] amine | ||
|---|---|---|---|
| Ligne 16: | Ligne 16: | ||
| ===== Installation de Spark (à réaliser une seule fois) ===== | ===== Installation de Spark (à réaliser une seule fois) ===== | ||
| - | Vérifier | + | Vérifier |
| <code bash> | <code bash> | ||
| - | source / | + | source / |
| which spark-shell | which spark-shell | ||
| </ | </ | ||
| cela doit afficher | cela doit afficher | ||
| - | / | + | / |
| Si c'est le cas ajouter à la fin de votre fichier '' | Si c'est le cas ajouter à la fin de votre fichier '' | ||
| <code bash> | <code bash> | ||
| - | source / | + | source / |
| </ | </ | ||
| Puis lancer le client Spark : | Puis lancer le client Spark : | ||
| - | <code bash> | + | <code bash> |
| puis saisir | puis saisir | ||
| Ligne 38: | Ligne 38: | ||
| <code scala>: | <code scala>: | ||
| - | A faire **seulement** si spark n'est **pas** installé | + | |
| + | A faire **seulement** si vous utilisez votre machine personelle et que spark n'est **pas** | ||
| et ajouter dans votre fichier .bashrc les lignes : | et ajouter dans votre fichier .bashrc les lignes : | ||
| <code bash> | <code bash> | ||
| Ligne 46: | Ligne 47: | ||
| puis appliquer les lignes ajoutées en exécutant | puis appliquer les lignes ajoutées en exécutant | ||
| <code bash> | <code bash> | ||
| - | |||
| - | |||
| ==== Utilisation en mode local (plutôt conseillé) ==== | ==== Utilisation en mode local (plutôt conseillé) ==== | ||
| Pour utiliser Spark en mode local, il suffit d' | Pour utiliser Spark en mode local, il suffit d' | ||
| - | <code bash> | + | <code bash> |
| Une fois que vous avez l' | Une fois que vous avez l' | ||
| Ligne 61: | Ligne 60: | ||
| - | ==== Utilisation | + | ==== Utilisation |
| - | Pour ceux qui le désirent, il est possible | + | **Pré-requis** : disposer |
| - | Pour ce faire, suivre les instructions ci-dessous. | + | |
| + | - créer une variable d’environnement <code bash> | ||
| + | - installer le package spylon-kernel en tapant <code bash> pip install spylon-kernel</ | ||
| + | - rajouter le kernel en tapant <code bash> | ||
| + | - lancer jupyter-notebook puis sélectionner le kernel // | ||
| + | |||
| + | |||
| + | ==== Utilisation de l' | ||
| + | |||
| + | {{ : | ||
| + | |||
| + | Le Tuto est aussi disponible depuis la page [[projet2018]] | ||
| + | |||
| + | ==== Utilisation d'un notebook | ||
| + | Pour ceux qui le désirent, il est possible d' | ||
| + | |||
| + | /*Autre possibilité, | ||
| + | (seulement si le kernel n' | ||
| + | */ | ||
| + | |||
| + | /* | ||
| <code bash> | <code bash> | ||
| unzip / | unzip / | ||
| </ | </ | ||
| - | |||
| Démarrer le notebook: | Démarrer le notebook: | ||
| - | |||
| <code bash> | <code bash> | ||
| cd spark-notebook-0.9.0-SNAPSHOT-scala-2.11.8-spark-2.2.0-hadoop-2.7.2 | cd spark-notebook-0.9.0-SNAPSHOT-scala-2.11.8-spark-2.2.0-hadoop-2.7.2 | ||
| bin/ | bin/ | ||
| </ | </ | ||
| - | |||
| puis lancer dans votre navigateur : | puis lancer dans votre navigateur : | ||
| http:// | http:// | ||
| + | | ||
| Ligne 112: | Ligne 128: | ||
| Pour charger les instructions à partir d'un fichier | Pour charger les instructions à partir d'un fichier | ||
| < | < | ||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
site/enseignement/master/bdle/tmes/spark.1512644449.txt.gz · Dernière modification : de hubert
