본문 바로가기 메뉴 바로가기

데브포유

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

데브포유

검색하기 폼
  • ※ 데브포유 둘러보기 (1242)
    • Dev4u Life (687)
      • 일상 (210)
      • 여행 (25)
      • 투자 (6)
      • Generative AI (11)
    • Database (342)
      • ClickHouse (5)
      • CockroachDB (19)
      • MariaDB (14)
      • mongoDB (63)
      • Oracle (146)
      • PostgreSQL(EDB) (3)
      • Presto (14)
      • SAP IQ (Sybase) (16)
      • yugabyteDB (7)
      • ETC (55)
    • Dev4u S/W (11)
      • Android App (3)
      • iPhone App (1)
      • WASMonitor (3)
      • ZtermManager (1)
    • Developer (198)
      • Android (7)
      • C & C++ (12)
      • Data Mining (4)
      • JFreeChart (4)
      • iPhone (4)
      • Java, Kotlin (35)
      • Node.js (2)
      • Python (15)
      • Rust (8)
      • Spark (10)
      • Unix Shell (12)
      • Util (31)
      • Web (16)
      • Weka (4)
      • ETC (34)
    • === E.N.D === (0)
  • 방명록

2017/03/14 (3)
[Spark] 페어 RDD의 트랜스포메이션 예제

package com.ex import org.apache.spark.{SparkConf, SparkContext} /** * Created by moonsun on 17. 3. 14.. */ object RddTest { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("RDD TEST") val sc = new SparkContext(conf) val input = sc.parallelize(List((1,2),(3,6),(2,3),(2,5))) println("\ntt0") val tt0 = input.reduceByKey( (x,y)=> x+y) tt0.foreach{ pr..

Developer/Spark 2017. 3. 14. 15:45
[Spark] Scala 단어 수 세기 예제

package com.ex import org.apache.spark.{SparkConf, SparkContext} /** * Created by moonsun on 17. 3. 14.. */ object WordCount { def main(args: Array[String]) { val conf = new SparkConf().setMaster("local").setAppName("WordCount") val sc = new SparkContext(conf) val rdd = sc.textFile("/Users/moonsun/spark/spark2/README.md") val words = rdd.flatMap(line => line.split(" ")) //words.foreach { println..

Developer/Spark 2017. 3. 14. 13:25
[Spark] IntelliJ IDEA + SBT + Scala 개발환경 설정해 보기

Spark를 파이썬으로 공부하고 있었는데, 성능면에서 Scala로 개발하는게 훨씬 빠르단다. Spark도 Scala로 개발되었다고 한다. 이왕하는거 Scala로 하기로 하고 개발 환경을 구성하고 테스트 코드를 실행해 보았다. 1. IntelliJ 설치 2. intelliJ 플러그인 중 Scala 설치 3. 테스트 프로젝트 생성 후 SBT 빌드파일 수정( 아래와 같이 스파크를 인식할 수있도록 라이브러리 의존성 추가) 4. 테스트 코드 수행 ps) Spark의 log4j.properties를 변경하고 싶으면, 변경된 파일을 /src/main/resouces 로 복사해 주면 됩니다.

Developer/Spark 2017. 3. 14. 10:20
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
  • ORACLE BASE
  • Oracle Tutorial
  • The Logical Optimizer
  • 데이터베이스-모델링(예제)
  • 한국 러스트 사용자 그룹
  • Ruste By Exsample
  • SQL튜닝
  • 나이파이 커스텀 프로세서
TAG
  • GKRS
  • yugabyteDB
  • JMW 헤어드라이기기
  • 파나소닉 비데 DL-EH10KWS
  • 오미크론
  • 톡토기
  • 별잉 빛나는 밤
  • 화분벌레
  • 브리다 정수기
  • 솔리드 쿨론
  • 증권정보포털
  • 별이 빚나는 밤
  • Sybase IQ
  • 남설 팔찌
  • weka
  • 매직 트랙패드2
  • Pixel Pals
  • 루미큐브 종류
  • VARIDESK
  • 카카오 에드
  • node.js
  • 코라나 19
  • 고체 향수
  • 르세라핌
  • 로니카 BCS
  • 유가바이트디비
  • 홈 오피스
  • 빈센트 반 고흐
  • 배당급
  • Life Chair
more
«   2017/03   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바