'
Cloudera oferuje wersje Enterprise i Express swojej Cloudera Distribution, w tym Apache Hadoop. Pogląd Cloudera na znaczenie wykwalifikowanych talentów zajmujących się dużymi zbiorami danych jest widoczny poprzez elementy jej certyfikacji. Oferuje certyfikat Cloudera Certified Hadoop Administrator (CCAH) dla profesjonalistów, którzy są odpowiedzialni za konfigurowanie, wdrażanie, konserwację i zabezpieczanie klastrów Apache Hadoop do celów produkcyjnych lub innych zastosowań korporacyjnych. Dzięki tej certyfikacji można się spodziewać poznania metod stosowanych przez najlepszych administratorów Apache Hadoop.
Aby dowiedzieć się o ogólnych aspektach CCAH, możesz odnieść się do tego połączyć.
Wzór egzaminu CCAH do egzaminu aktualizacyjnego CCAH i CCAH:
Kod egzaminu: CCA-500
Liczba pytań: 60
Trwanie: 90 minut
Wynik zaliczający: 70%
Dostępne języki: Angielski, japoński (w przygotowaniu)
Opłata za egzamin: 295 USD
Wzorzec egzaminu jest ustawiony w taki sposób, że koncentruje się na zademonstrowaniu wiedzy technicznej kandydata, umiejętności i umiejętności konfigurowania, wdrażania, utrzymywania i zabezpieczania klastra Apache Hadoop oraz projektów ekosystemu, które składają się na Enterprise Data Hub.
Egzamin aktualizacyjny CCAH:
Kod egzaminu: CCA-505
jak utworzyć listę połączoną w c
Liczba pytań: Cztery pięć
Trwanie: 90 minut
Wynik zaliczający: 70%
Języki: Angielski, japoński (w przygotowaniu)
Cena £: 125 USD
Wzór dla CCAH i CDH5 pozostaje taki sam dla obu. Należy również zauważyć, że elementy ekosystemu Hadoop nie są już traktowane osobno jako osobna sekcja, ale są zintegrowane w trakcie egzaminu. Zarówno CCA-500, jak i CCA-505 mają taki sam udział pozycji na sekcję.
Przyjrzyjmy się wzorowi egzaminu CCA - 500
HDFS - 17%
- Funkcja demonów HDFS
- Normalne działanie klastra Apache Hadoop, zarówno w przechowywaniu danych, jak i podczas przetwarzania danych.
- Aktualne cechy systemów komputerowych, które motywują system taki jak Apache Hadoop.
- Główne cele projektowania HDFS.
- Zidentyfikuj odpowiedni przypadek użycia federacji HDFS w danym scenariuszu.
- Składniki i demon klastra HDFS HA-Quorum.
- Przeanalizuj rolę zabezpieczeń HDFS (Kerberos).
- Najlepszy wybór serializacji danych dla danego scenariusza.
- Ścieżki odczytu i zapisu plików.
- Polecenia służące do manipulowania plikami w powłoce systemu plików Hadoop.
YARN i MapReduce w wersji 2 - 17%
- Uaktualnianie klastra z Hadoop 1.0 do Hadoop 2.0.
- Wdróż MRv2 / YARN ze wszystkimi demonami YARN.
- Strategia projektowania dla MRv2.
- Jak YARN obsługuje alokację zasobów.
- Przepływ pracy zadania MapReduce działającego na YARN
- Określ, które pliki należy zmienić i jak przeprowadzić migrację klastra z MRv1 do MRv2 działającego w YARN.
Planowanie klastrów Hadoop - 16%
- Kwestie do rozważenia przy wyborze sprzętu i systemów operacyjnych dla klastra Apache Hadoop.
- Uzyskaj wgląd w możliwości wyboru systemu operacyjnego.
- Dobra znajomość dostrajania jądra i wymiany dysków.
- Ustal konfigurację sprzętową odpowiednią dla scenariusza.
- Zidentyfikuj komponenty ekosystemu wymagane przez klaster do wypełnienia umowy SLA w danym scenariuszu.
- Poznaj specyfikę obciążenia, w tym procesor, pamięć, pamięć masową, dyskowe operacje we / wy.
- Zapoznaj się z wykorzystaniem sieci w Hadoop i wymyśl komponenty projektu sieci dla danego scenariusza.
Instalacja i administracja klastrem Hadoop - 25%
- Jak klaster będzie obsługiwał awarie dysków i maszyn w danym scenariuszu.
- Przeanalizuj konfigurację logowania i format pliku.
- Podstawy metryk Hadoop i monitorowania kondycji klastra.
- Znajomość funkcji i celu dostępnych narzędzi do monitorowania klastrów.
- Zainstaluj wszystkie komponenty ekosystemu w CDH 5, takie jak Impala, Flume, Oozie, Hue, Cloudera Manager, Sqoop, Hive i Pig.
- Poznaj funkcje i przeznaczenie dostępnych narzędzi do zarządzania systemem plików Apache Hadoop.
Zarządzanie zasobami - 10%
- Zapoznaj się z ogólnym aspektem projektu i celami każdego programu planującego Hadoop.
- Dowiedz się, jak FIFO Scheduler przydziela zasoby klastra.
- Określ, w jaki sposób Fair Scheduler przydziela zasoby klastra w YARN.
- Określ, w jaki sposób program planujący wydajność przydziela zasoby klastra.
Monitorowanie i logowanie - 15%
- Funkcje i cechy zbioru danych Hadoop.
- Przeanalizuj internetowe interfejsy użytkownika NameNode i JobTracker.
- Monitoruj demony klastra.
- Identyfikuj i monitoruj użycie procesora w węzłach głównych.
- Dowiedz się, jak monitorować wymianę i alokację pamięci na wszystkich węzłach.
- Wyświetlaj pliki dziennika Hadoop i zarządzaj nimi.
- Zinterpretuj plik dziennika.
Uwaga: Wymienione powyżej tematy są raczej wskazówkami, jak przygotować się do egzaminu. Cloudera zaleca, aby kandydat dokładnie zrozumiał cele każdego egzaminu i wykorzystał zasoby i kursy szkoleniowe zalecane na tych stronach, aby uzyskać dokładne zrozumienie dziedziny wiedzy związanej z rolą ocenianą na egzaminie.
Szczegóły testu praktycznego
Testy praktyczne Cloudera Certification (płatne) mają na celu symulację wzoru egzaminu CCAH. Zaleca się, aby przed przystąpieniem do egzaminu przystąpić do testu praktycznego, aby ocenić poziom przygotowania.
Oto, czego powinieneś się spodziewać w tym teście praktycznym:
co jest przemijające w java
- 60 pytań przypominających pytania certyfikacyjne Cloudera.
- Szczegółowe wyjaśnienia poprawnych / niepoprawnych odpowiedzi w celu zrozumienia pojęć.
- Testy praktyczne są tworzone przez tego samego odpowiedzialnego za tworzenie pytań do egzaminów Cloudera Certification.
- Ucz się w dowolnym czasie i miejscu za pomocą smartfonów i tabletów.
- Wypróbuj bezpłatne demo testu praktycznego, które zawiera 15 pytań od CCAH.
Możesz zapoznać się ze wskazówkami do testu praktycznego tutaj.
Inne przewodniki do nauki na temat korzystania z Cloudera Certified Administrator for Apache Hadoop (CCAH)
Czy jesteś gotowy, aby zostać certyfikowanym administratorem Cloudera dla Apache Hadoop (CCAH) - CCA 500? Tutaj możesz zarejestrować się na ten egzamin.
Masz do nas pytanie? Wspomnij o nich w sekcji komentarzy, a my skontaktujemy się z Tobą.
Powiązane posty:
Wszystko o Cloudera Certified Developer for Apache Hadoop (CCDH)
co to jest big data hadoop
Jak zostać administratorem Hadoop