일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- DeepLearning
- Hive CLI
- 딥러닝
- Spark Data 불러오기
- 캐글
- 스파크
- 하이브
- Deeplearning 키워드
- hive setting
- Spark
- Feature extraction
- Managed Table
- learning rate
- Clodera Quick Start
- Hadoop Ecosystems
- 차원의 저주
- Over fitting
- Auto Encoder
- data load
- .hiverc
- 선형 회귀
- 학습률
- Spark 설치
- Tez
- Data 불러오기
- One-hot encoding
- hive
- L2 정규화
- Haddop
- Manifold Learning
- Today
- Total
남는건 기록뿐
Spark 설치 본문
Download binary
cd /path/to/spark/download
tar zxvf spark-3.0.0-preview2-bin-hadoop3.2.tgz
ln -s spark-3.0.0-preview2-bin-hadoop3.2 default
Setting Environment Variables
export SPARK_HOME="/path/to/spark/download/default"
export SPARK_CONF_DIR="${SPARK_HOME}/conf"
export PATH="${PATH}:${SPARK_HOME}/bin:${SPARK_HOME}/sbin"
spark-defaults.conf
vim ${SPARK_CONF_DIR}/spark-defaults.conf
spark.master local[1]
spark.eventLog.enabled true
spark.eventLog.dir /path/to/spark/eventLog spark.serializer org.apache.spark.serializer.KryoSerializer spark.driver.memory 2g
HDFS, SPARK 실행
hdfs 실행 및 확인
# hdfs 실행
start-dfs.sh
# spark 실행
start-all.sh
# hdfs 올라왔는지 확인
hdfs dfs -ls /
# hdfs option 확인
hdfs -help
# spark-shell 실행
spark-shell
# spark-shell option 확인
spark-shell -h help
# spark-shell --master "local[*]" --executor-memory 32G --driver-memory 32G (환경을 고려하여 옵션 설정)
'Spark' 카테고리의 다른 글
Spark Basic Function (0) | 2020.06.16 |
---|---|
Spark에서 Data 불러오기 (0) | 2020.06.15 |