일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
- Hive CLI
- Feature extraction
- Auto Encoder
- DeepLearning
- hive setting
- 캐글
- Managed Table
- Manifold Learning
- learning rate
- Spark Data 불러오기
- Hadoop Ecosystems
- L2 정규화
- 차원의 저주
- 학습률
- data load
- Over fitting
- 선형 회귀
- Haddop
- hive
- Data 불러오기
- One-hot encoding
- .hiverc
- 딥러닝
- Clodera Quick Start
- Tez
- Deeplearning 키워드
- 스파크
- Spark 설치
- Spark
- 하이브
- Today
- Total
목록Hadoop (9)
남는건 기록뿐

Yarn이 개발된 이유 --> Resource Manager --> 1. Scheduler : 2. Application Manager : 3. Resource Tracker : Node Manager --> 1. Application Master : 2. Container : Hadoop 2 (YARN) 동작 방식 -->

NameNode (Master) --> Secondary NameNode --> DataNode (Slave) --> JobTracker(Hadoop1) --> TaskTracker(Hadoop1) --> Yarn(hadoop2) --> Scheduler --> Application Manager(JobTracker) --> Node Manager(TaskTracker) --> Application Master(JobTracker) --> Container -->

HDFS 파일 저장과 조회 --> HDFS 네임노드 가용성 HADOOP의 구성요소 1. Client 2. Master node 3. Slave node Data Analytics 관점 1. Haddop1 -- Job Tracker : -- Task Tracker : 2. Haddop2 -- Resource Manager : -- Application Manager : -- Application Master : -- Node Master : Data Storage 관점 -- NameNode : -- DataNode :

HDFS가 잘 맞지 않는 응용 분야 1. 빠른 데이터 응답 시간 - 2. 수많은 작은 파일 - 3. 다중 라이터와 파일의 임의 수정 - HDFS 기본 컨셉 -

HDFS 기초 HDFS는 다음과 같은 네 가지 목표를 가지고 설계 되었음. 1. 장애복구 - 2. 스트리밍 방식의 데이터 접근 - 3. 대용량 데이터 저장 - 4. 데이터 무결성 - HDFS 설계 특성 1. 매우 큰 파일 - 2. 스트리밍 방식의 데이터 접근 - 3. 범용 하드웨어 -