// 이전 글의 세션 헬퍼를 먼저 참조해 주세요. package sample.scala.spark.mongodb import com.mongodb.spark.MongoSparkimport com.mongodb.spark.config.ReadConfigimport org.bson.Document object MongoAggregate extends MongoHelper { def main(args: Array[String]):Unit = { val sparkSession = getSparkSession(args) val readConfig = ReadConfig(Map("collection" -> "orders", "readPreference.name" -> "primaryPreferred") , Some..
스파크에서 몽고디비를 데이터소스로 사용하는 예제 소스에서 공통으로 사용될 세션 헬퍼 소스 입니다 package sample.scala.spark.mongodb import org.apache.spark.sql.SparkSession private[mongodb] trait MongoHelper { def getSparkSession(args: Array[String]): SparkSession = { val sparkSession = SparkSession.builder() .master("local[*]") .appName("test") .config("spark.mongodb.input.uri", "mongodb://localhost:50000") .config("spark.mongodb.input...
1. 스파크 다운로드http://spark.apache.org/downloads.html 에서 Pre-built for hadoop 으로 다운로드 후 c:\spark 에 풀기... 2. windows용 hadoop 설치 (하둡을 사용하지 않아도 winutils.exe 가 필요함으로 설치)http://www.barik.net/archive/2015/01/19/172716/ c:\hadoop 에 풀기 3. spark-shell2.cmd 를 열어서 HADOOP_HOME, JAVA_HOME, SPARK_HOME 설정 set HADOOP_HOME=c:\hadoopset SPARK_HOME=c:\spark 4. hive에러 방지용 명령어 실행 ( c:\tmp\hive 디렉토리가 없으면 만듬)c\hadoop\bin\..
package com.ex import org.apache.spark.{SparkConf, SparkContext} /** * Created by moonsun on 17. 3. 14.. */ object RddTest { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("RDD TEST") val sc = new SparkContext(conf) val input = sc.parallelize(List((1,2),(3,6),(2,3),(2,5))) println("\ntt0") val tt0 = input.reduceByKey( (x,y)=> x+y) tt0.foreach{ pr..
package com.ex import org.apache.spark.{SparkConf, SparkContext} /** * Created by moonsun on 17. 3. 14.. */ object WordCount { def main(args: Array[String]) { val conf = new SparkConf().setMaster("local").setAppName("WordCount") val sc = new SparkContext(conf) val rdd = sc.textFile("/Users/moonsun/spark/spark2/README.md") val words = rdd.flatMap(line => line.split(" ")) //words.foreach { println..
Spark를 파이썬으로 공부하고 있었는데, 성능면에서 Scala로 개발하는게 훨씬 빠르단다. Spark도 Scala로 개발되었다고 한다. 이왕하는거 Scala로 하기로 하고 개발 환경을 구성하고 테스트 코드를 실행해 보았다. 1. IntelliJ 설치 2. intelliJ 플러그인 중 Scala 설치 3. 테스트 프로젝트 생성 후 SBT 빌드파일 수정( 아래와 같이 스파크를 인식할 수있도록 라이브러리 의존성 추가) 4. 테스트 코드 수행 ps) Spark의 log4j.properties를 변경하고 싶으면, 변경된 파일을 /src/main/resouces 로 복사해 주면 됩니다.
- Total
- Today
- Yesterday
- 루미큐브 종류
- Pixel Pals
- 증권정보포털
- 로니카 BCS
- 화분벌레
- 별잉 빛나는 밤
- node.js
- 배당급
- VARIDESK
- GKRS
- 매직 트랙패드2
- 르세라핌
- Sybase IQ
- JMW 헤어드라이기기
- weka
- 브리다 정수기
- 고체 향수
- yugabyteDB
- Life Chair
- 솔리드 쿨론
- 유가바이트디비
- 홈 오피스
- 톡토기
- 카카오 에드
- 파나소닉 비데 DL-EH10KWS
- 오미크론
- 코라나 19
- 남설 팔찌
- 빈센트 반 고흐
- 별이 빚나는 밤
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |