Ds Big Data Hachani [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Devoir surveillé Big Data NOM Hachani -, PRENOM -med amine GROUPE------------------

Choisir la (les) bonne(s) réponses QUESTIONS 1.

La taille d’un bloc, enregistré dans un dataNode, est : 64 KO 128 GO 64 Octet 1 TO Aucune de propositions précédentes 1) aucune de propositions précédentes

2.

Big data est caractérisé par : 5 V : Volume, Vitesse, Véracité, vérifiabilité, validité 5 V : volume, vélocité, variété, validité et valeur 5V : Volume, variété, vélocité, véracité et vérifiabilité 5V : volume , vélocité, variété, véracité et validité Aucune de propositions précédentes 2)aucune de propositions précédentes

3.

Les sources de données Big data sont : Les applications OLTP Les applications OLAP IOT Les applications B2C

Les données dans le Hadoop distributed file system Aucune de propositions précédentes 3) Aucune de propositions précédentes 4.

Quels sont les concepts qui sont liés à l’analyse de données Data Warehouse ELT Machine learning OLAP OLTP Cluster Big Data BI Aucune de propositions précédentes 4)OLAP

5.

Hadoop ne permet pas de : Gérer les ressources de stockage Gérer les ressources de stockage et de transfert de données Gérer les ressources de traitement via des programmes MapReduce Gérer toutes les ressources d’analyses de données Aucune de propositions précédentes 5)Gérer les ressources de stockage et de transfert de données

6.

Un cluster tolérant aux pannes comporte au minimum 1 machine 2 machines 3 machines 4 machines Plus que 4 machines 6) 4 machines

7.

La gestion de données Big data dans Hadoop est : Centralisée Répartie En parallèle Séquentielle Synchrone

Asynchrone Aucune de propositions précédentes 7)Répartie 8.

HDFS désigne : Hadoop File System Hadoop Dimensional File System Hadoop Directionnel File system Hadoop Distributed Folder System Aucune de proposition précédente 8) Aucune de proposition précédente

9.

La gestion de données par HDFS n’est pas : Abstraite Physique Logique Physique et logique Aucune de propositions précédentes 9)a+c+d

10. YARN est un composant de : a.

BI

b.

ETL

c.

DataWarhouse

d.

hadoop

e.

Data Science

f.

Aucune de propositions précédentes

10) hadoop 11. Hadoop tourne sur : Le système d’exploitation Windows Le système d’exploitation linux Le système d’exploitation ubuntu Tous les systèmes d’exploitation Aucune de propositions précédentes 11) Tous les systèmes d’exploitation 12. Quel(s) est (sont) le (s) concept(s) lié(s) à la vélocité ?

Taille des vidéos publiées sur Facebook Nombre de comptes Facebook Nombre de commentaires sur une publication facebook Volume de nouvelles données publiées par seconde Aucune de propositions précédentes 12)Aucune de propositions précédentes 13. Quel est le rôle de NameNode ? Ecrire et lire les données sur les dataNodes Vérifier la disponibilité de données sur les datanodes Remplacer un datanode dans le cas où l’un d’entre eux est indisponible Automatiser les transactions de lecture et écriture Aucune de propositions précédentes 13)a+b+c+d 14. jps est une commande : BI HADOOP UBUNTU Java ETL Aucune de propositions précédentes 14) java 15. La création de variables d’environnement est assurée par la commande : Gedit hadoop.sh Gedit hadoop-site.xml Source hadoop-site.xml Source hadoop.sh Aucune de propositions précédentes 15)Source hadoop.sh

16. Jobtracker est un composant de : Datanode Resourcemanager Nodemanger Namenode Aucune de propositions précédentes 16) Namenode

17. Les variables d’environnement de Hadoop sont définies dans : /etc/hadoop.d/variable.sh /etc/hadoop.d/hadoop.sh /etc/profile.d/variable.sh /etc/profile.d/hadoop.sh Aucune de propositions précédentes 17)

Aucune de propositions précédentes

18. La ( les) commande(s) de lancer les services hadoop sont echo $HADOOP_HOME hadoop fs –ls / hadoop fs start-all start-hdfs.sh start-yarn.sh Aucune de propositions précédentes 18)

start-hdfs.sh

19. Les fichiers de configuration hadoop se trouvent dans : $HADOOP_HOME $HADOOP_DATA_HOME $HADOOP_CONV_DIR $HADOOP_CONF_HOME Aucune de propositions précédentes

19)

$HADOOP_HOME

20. Hadoop permet de : Stocker les données Big data Gérer les ressources de stockage dans un cluster Gérer les ressources de stockage et de traitement dans un système distribué Répondre aux requêtes clients Aucune de réponses précédentes 20)

a+b+c+d

21. YARN est un composant hadoop qui ne permet pas de : stocker les données big data traiter les données big data stocker et traiter les données big data traiter les données big data via le Jobtracker et le tasktracker aucune de réponses précédentes 21)stocker les données big data 22. Les requêtes clients sont traitées en première étape par : Le NameNode Le DataNode Le jobtracker de namenode Le tasktracker de datanode Aucune de réponses précédentes 22)

Le NameNode

23. Le MapReduce est un : Style de programmation pour les données Big data Style de programmation permettant de traiter les données stockées dans un cluster Style de programmation permettant d’enregistrer physiquement les résultats intermédiaires Style de programmation composé de plusieurs Map et un seul Reduce

Aucune de réponses précédentes 23)

Style de programmation permettant de traiter les données stockées dans un cluster

24. Le big data est né après Le BI Le OLTP Le OLAP La programmation MapReduce Aucune de réponses précédentes 24) La programmation MapReduce