메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기

한빛출판네트워크

머하웃 완벽 가이드(Mahout in Action): 하둡에 딱 맞는 빅데이터를 활용한 기계학습

한빛미디어

번역서

절판

  • 저자 : 션 오웬 , 로빈 애닐 , 테드더닝 , 엘렌 프리드만
  • 번역 : 안태성
  • 출간 : 2012-10-23
  • 페이지 : 552 쪽
  • ISBN : 9788979149609
  • 물류코드 :1960
  • 초급 초중급 중급 중고급 고급
5점 (1명)
좋아요 : 36
빅데이터 맞춤 기계학습 라이브러리인 머하웃의 개념부터 활용까지 소개하는 완벽 가이드!

머하웃은 대용량 데이터를 처리하는 확장성을 가진 아파치 기계학습용 오픈소스 라이브러리다. 이 책은 머하웃을 사용해서 실질 문제를 해결하는 실전 가이드로 머하웃의 추천엔진, 군집, 분류 기능을 탐험한다.

♣ 창시자가 쓴 "머하웃"의 정수
머하웃의 창시자와 핵심 커미터가 쓴 이 책은 머하웃의 핵심 개념인 추천엔진, 군집, 분류를 알기 쉽게 설명하고 프레임워크에 데이터 분석 기법을 활용하는 방법도 비중 있게 다룬다. 위키피디아 데이터 셋 등을 활용한 실전 테스트도 제시한다. 이 책은 빅데이터에서 효율적이고 빠르게 가치를 뽑아내려는 개발자에게 좋은 안내서가 될 것이다!

♣ 머하웃 버전에 대하여
머하웃은 여전히 개발이 진행 중이며, 이 책은 머하웃 릴리즈 0.5 버전을 기준으로 작성됐다.
최근에 머하웃 0.7 버전이 릴리즈되었다. 이 책의 부록에는 머하웃 0.6과 0.7 릴리즈 노트가 실려 있다.

♣ 대상 독자
기계학습 이론에 대한 교재를 찾고 있다면 이 책은 적합하지 않다. 온전한 기계학습 이론이나 이 책에 나온 다양한 알고리즘이나 기법들을 설명하지는 않기 때문이다. 기계학습 기법과 선형대수(행렬, 벡터)와 관련된 개념에 익숙한 사람들에게 이 책이 유용할지도 모르겠다. 하지만 그런 가정으로 쓰여지지는 않았다.
만약 최신의 지능형 애플리케이션을 개발하고 있다면, 이 책은 매우 유용할 것이다. 이 책은 기계학습의 이론보다는 실제로 동작하는 솔루션 사용 예제를 중심으로 실제로 사용하는 측면에 초점을 맞추고 있다. 어떻게 머하웃으로 문제를 해결할 수 있는지 실무 경험자가 설명하여 독자가 통찰력을 얻도록 이 책을 구성했다.
만약 인공지능, 기계학습 분야 혹은 관련 영역의 연구자라면 이 책은 적합하다. 새로운 알고리즘을 실제로 사용할 때는 큰 장애물이 있게 마련이다. 머하웃은 괜찮은 프레임워크, 패턴 컬렉션, 테스트와 대규모 환경에서 알고리즘 적용이 가능한 이미 준비된 컴포넌트를 제공한다. 이 책은 복잡한 분산 컴퓨팅 프레임워크 위에서 동작하는 기계학습 시스템 구현 방법에 관해 설명한다.
제품 혹은 새로운 사업에서 기계학습을 사용해서 경쟁력을 확보하려 한다면 이 책은 적합하다. 실제 환경의 예제를 참조해서 기계학습 기술을 다방면에서 적용할 만한 아이디어를 구상해볼 수 있을 것이다. 이렇게 되면 단순한 기술 팀 수준에서도 단번에 비용 대비 효과가 높은 구현이 가능해져, 기존에는 대규모 기술 자원이 있는 회사에만 현실적이었던 대용량 데이터를 처리할 수 있을 것이다.

- 빅데이터를 활용하여 추천, 분류, 군집 기능을 제공하고 싶은 개발자
- 인공지능, 기계학습 분야의 핵심 연구자나 이를 배우고 싶은 학생
- 빅테이터를 효율적으로 관리하려는 기술 기획자
션 오웬 저자

션 오웬

9년째 소프트웨어 엔지니어로 일하고 있으며, 대부분 기간을 구글의 모바일 웹 검색 개발에 썼다. 2008년부터는 아파치 머하웃 기계학습 프로젝트의 프라이머리 커미터로 참여하고 있으며 머하웃 컨설턴트로 일하고 있다.
로빈 애닐 저자

로빈 애닐

2008년 구글 썸머오브코드의 아파치 머하웃 프로젝트에 참여했다. 2009년에 머하웃 커미터가 되었으며, 구글에서 소프트웨어 엔지니어로 일한다.
테드더닝 저자

테드더닝

현재 MapR 테크놀러지의 수석 애플리케이션 아키텍트로 아파치 머하웃 프로젝트의 커미터이며 PMC 멤버다. 머하웃의 군집, 분류, 행렬 분해 알고리즘 개발에 공헌했으며 MusicMatch(현재의 야후! 뮤직)와 Veoh 추천 시스템의 수석 아키텍트로 ID 분석을 통한 사기 적발 시스템을 개발했다.
엘렌 프리드만 저자

엘렌 프리드만

생화학 박사이면서 경험이 많은 작가로, 생화학 분야의 연구 경력은 물론 분자생물학, 약학, 지구과학과 같은 폭넓은 주제에 대한 글을 쓰고 있다.
안태성 역자

안태성

대학교에서 전자공학과 정보통계학을 공부했으며, 비정형 텍스트 분석 분야에서 16년째 일하고 있다. 기계번역, 음성인식 관련 기업에서 SW 연구 개발을 담당했으며, 한국어형태소분석기, 한일기계번역엔진 등 다양한 자연어 처리 SW를 직접 개발했다. 2003년에는 복합문서 객체 검색엔진의 개발 공로로 정보통신부 장관상을 받기도 했다. 현재는 비정형 콘텐츠 분석 SW 전문 업체인 솔트룩스의 창업 멤버로 텍스트 마이닝, 시맨틱웹 SW R&D와 고객 기술 자문을 담당하고 있다.

CHAPTER 1 아파치 머하웃과의 만남1.1 머하웃 이야기   1.2 머하웃 기계학습 테마   1.2.1 추천엔진   1.2.2 군집   1.2.3 분류 1.3 머하웃과 하둡으로 대용량 데이터와 씨름하기  1.4 머하웃 설정하기   1.4.1 자바와 통합개발환경   1.4.2 메이븐 설치하기   1.4.3 머하웃 설치하기   1.4.4 하둡 설치하기 1.5 요약 PART 1 추천CHAPTER 2 추천기 소개2.1 추천 소개   2.2 처음으로 추천엔진 실행해보기   2.2.1 입력 데이터 만들기   2.2.2 추천기 만들기   2.2.3 결과물 분석하기 2.3 추천기 평가하기   2.3.1 학습 데이터와 점수   2.3.2 RecommederEvaluator 실행하기   2.3.3 결과 평가해보기 2.4 정확률과 재현율 평가하기   2.4.1 RecommenderIRStatsEvaluator 실행하기   2.4.2 문제점 2.5 그룹렌즈 데이터 셋 평가하기   2.5.1 추천기 입력용 데이터 추출하기    2.5.2 다른 추천기를 이용한 실험 수행 2.6 요약 CHAPTER 3 추천기에서 데이터 표현하기3.1 선호 데이터 표현하기   3.1.1 Preference 객체   3.1.2 PreferenceArray 구현   3.1.3 컬렉션 속도 높이기   3.1.4 FastByIDMap과 FastIDSet 3.2 인메모리 DataModel   3.2.1 GenericDataModel   3.2.2 파일 기반 데이터   3.2.3 새로고침 가능한 컴포넌트   3.2.4 파일 업데이트하기   3.2.5 데이터베이스 기반 데이터   3.2.6 JDBC와 MySQL   3.2.7 JNDI를 통해 설정하기   3.2.8 프로그램으로 설정하기 3.3 선호값 없이 처리하기   3.3.1 선호값을 무시할 시점   3.3.2 선호값 없이 인메모리로 표현하기   3.3.3 호환되는 구현 방식 선택하기 3.4 요약 CHAPTER 4 추천 만들기4.1 사용자 기반 추천 이해하기   4.1.1 추천이 잘못될 때   4.1.2 추천이 올바르게 될 때 4.2 사용자 기반 추천기 살펴보기   4.2.1 알고리즘   4.2.2 GenericUserBasedRecommender를 사용한 알고리즘 구현   4.2.3 그룹렌즈 탐색하기   4.2.4 사용자 이웃 탐색하기   4.2.5 고정 크기 이웃   4.2.6 임계치 기반 이웃 4.3 유사도 측정법 살펴보기   4.3.1 피어슨 상관관계 기반의 유사도   4.3.2 피어슨 상관관계의 문제점   4.3.3 가중치 적용하기   4.3.4 유클리드 거리 기반의 유사도 정의하기   4.3.5 코사인 측정 유사도 적용하기   4.3.6 스피어만 상관관계의 관련 순위로 유사도 정의하기   4.3.7 타니모토 계수로 유사도의 선호값 무시하기   4.3.8 로그 우도 테스트로 스마트한 유사도 계산하기   4.3.9 선호 추정하기 4.4 아이템 기반 추천   4.4.1 알고리즘   4.4.2 아이템 기반 추천기 살펴보기 4.5 슬로프-원 추천기   4.5.1 알고리즘   4.5.2 슬로프-원 실제 체험   4.5.3 용량 차이와 메모리 고려   4.5.4 선행 계산 분산하기 4.6 새롭고 실험적인 추천기   4.6.1 특이값 분해 기반 추천기   4.6.2 선형보간법을 활용한 아이템 기반 추천   4.6.3 군집 기반 추천 4.7 다른 추천기와 비교해보기   4.7.1 머하웃에서 콘텐츠 기반 기법 적용하기   4.7.2 콘텐츠 기반 추천 깊게 살펴보기 4.8 모델 기반 추천기 비교해보기 4.9 요약 CHAPTER 5 추천기를 실제로 적용해보기5.1 데이트 사이트의 예제 데이터 분석하기 5.2 효과적인 추천기 찾아보기   5.2.1 사용자 기반 추천기   5.2.2 아이템 기반 추천기   5.2.3 슬로프-원 추천기   5.2.4 정확률과 재현율 평가하기   5.2.5 성능 평가하기 5.3 도메인 특화 정보 추가 분석하기   5.3.1 커스텀 아이템 유사도 측정 사용   5.3.2 콘텐츠 기반 추천   5.3.3 IDRescorer로 추천 개선하기   5.3.4 IDRescorer에 성별 정보 포함하기   5.3.5 커스텀 추천기의 패키징 5.4 익명 사용자에게 추천하기   5.4.1 PlusAnonymousUserDataModel의 임시 사용자    5.4.2 익명 사용자 모으기 5.5 웹 기반 추천기 만들기   5.5.1 WAR 파일 패키징하기   5.5.2 배포 테스트하기 5.6 추천기의 업데이트와 모니터링 5.7 요약 CHAPTER 6 분산 추천 계산6.1 위키피디아 데이터 셋 분석하기   6.1.1 규모 문제와 씨름하기   6.1.2 분산 컴퓨팅의 장점과 단점 평가 6.2 분산 아이템 기반 알고리즘 설계하기    6.2.1 동시 발생 행렬 생성하기   6.2.2 사용자 벡터 계산하기   6.2.3 추천 만들기   6.2.4 결과 해석하기   6.2.5 분산 처리 구현을 향해서 6.3 맵리듀스 기반의 분산 알고리즘 구현하기   6.3.1 맵리듀스 살펴보기    6.3.2 맵리듀스로 전환하기: 사용자 벡터 생성하기    6.3.3 맵리듀스로 전환하기: 동시 발생 계산하기   6.3.4 맵리듀스로 전환하기: 행렬 곱셈의 재검토   6.3.5 맵리듀스로 전환하기: 부분곱으로 행렬 곱셈하기   6.3.6 맵리듀스로 전환하기: 추천하기  6.4 하둡에서 맵리듀스 실행하기   6.4.1 하둡 설정하기   6.4.2 하둡으로 추천 실행하기    6.4.3 맵퍼와 리듀서 설정하기 6.5 의사-분산 추천기   6.6 추천 활용하기   6.6.1 클라우드에서 실행하기   6.6.2 독특한 추천 사용을 상상하기 6.7 요약 PART 2 군집CHAPTER 7 군집 만나보기7.1 군집 소개 7.2 아이템 유사성 측정  7.3 Hello World: 단순 군집 예제 실행하기   7.3.1 입력 만들기   7.3.2 머하웃 군집 사용   7.3.3 결과 분석 7.4 거리 측정법    7.4.1 유클리드 거리 측정법   7.4.2 제곱 유클리드 거리 측정법   7.4.3 맨하탄 거리 측정법   7.4.4 코사인 거리 측정법   7.4.5 타니모토 거리 측정법   7.4.6 가중치 거리 측정법 7.5 다시 한번 Hello World 예제에서 다양한 거리 측정법 시험해보기 7.6 요약 CHAPTER 8 데이터 표현8.1 벡터의 시각화   8.1.1 데이터를 벡터로 변환하기   8.1.2 머하웃에서 사용하는 벡터 준비하기 8.2 텍스트 문서를 벡터로 표현하기   8.2.1 TF-IDF로 가중치 향상하기   8.2.2 n-그램 연어로 단어의 의존 관계 파악하기 8.3 문서에서 벡터 생성하기 8.4 정규화로 벡터의 품질 향상하기 8.5 요약 CHAPTER 9 머하웃 군집 알고리즘9.1 K-평균 군집   9.1.1 K-평균에 대해 알아야 할 모든 것   9.1.2 K-평균 군집 실행하기   9.1.3 캐노피 군집으로 완벽한 k값 구하기   9.1.4 사례 연구: K-평균으로 뉴스 기사 군집하기 9.2 K-평균을 넘어서: 군집 기법의 개요   9.2.1 다른 종류의 군집 문제   9.2.2 다른 군집 기법들 9.3 퍼지 K-평균 군집   9.3.1 퍼지 K-평균 군집 실행하기   9.3.2 얼마나 퍼지해야 너무 퍼지한 것인가?   9.3.3 사례 연구: 퍼지 K-평균을 사용한 뉴스 기사의 군집 9.4 모델 기반 군집   9.4.1 K-평균의 약점   9.4.2 디리클레 군집   9.4.3 모델 기반의 군집 예제 실행하기 9.5 잠재 디리클레 할당을 사용한 토픽 모델링   9.5.1 잠재 디리클레 분석의 이해   9.5.2 TF-IDF vs. LDA   9.5.3 LDA의 파라미터 튜닝하기   9.5.4 사례 학습: 뉴스 기사에서 토픽 찾기   9.5.5 토픽 모델링 애플리케이션 9.6 요약 CHAPTER 10 군집 품질 평가와 향상 기법10.1 군집 결과 검사하기 10.2 군집 결과 분석하기   10.2.1 거리 측정법과 특성 선택   10.2.2 군집 간 거리와 군집 내 거리   10.2.3 혼합된 군집과 중첩된 군집 10.3 군집 품질 향상하기   10.3.1 문서 벡터의 생성 향상하기   10.3.2 커스텀 거리 측정법 만들기 10.4 요약 CHAPTER 11 군집 실전 배치11.1 하둡에서 군집을 실행하기 위한 빠른 시작   11.1.1 로컬 하둡 클러스터에서 군집 실행하기   11.1.2 하둡 설정 커스터마이징하기 11.2 군집 성능 튜닝하기   11.2.1 CPU 의존성이 높은 작업에서 성능 함정 피하기   11.2.2 I/O 의존적인 작업에서 성능 함정 피하기 11.3 배치와 온라인 방식의 군집   11.3.1 사례 연구: 온라인 뉴스 군집   11.3.2 사례 연구: 위키피디아 문서 군집하기 11.4 요약 CHAPTER 12 실환경에 군집 적용12.1 트위터에서 유사한 사용자 찾기   12.1.1 데이터 전처리와 특성 가중치   12.1.2 특성 선택의 공통 함정 피하기 12.2 Last.fm에서 아티스트 태그 제시하기   12.2.1 동시 발생을 사용한 태그 추천   12.2.2 Last.fm 아티스트 사전 만들기   12.2.3 Last.fm 태그를 아티스트 속성 벡터로 변환하기   12.2.4 Last.fm 데이터를 사용해서 K-평균 실행하기 12.3 스택 오버플로우 데이터 셋 분석하기   12.3.1 스택 오버플로우 데이터 셋 파싱하기   12.3.2 스택 오버플로우의 군집 문제 찾아보기 12.4 요약 PART 3 분류CHAPTER 13 분류 만나보기13.1 왜 머하웃 분류기를 사용해야 할까? 13.2 분류시스템 기초    13.2.1 분류, 추천, 군집의 차이    13.2.2 분류 응용 사례 13.3 분류기는 어떻게 동작하나?   13.3.1 모델    13.3.2 훈련 vs. 테스트 vs. 실전   13.3.3 예측 변수 vs. 목표 변수   13.3.4 레코드, 필드, 값   13.3.5 4가지 종류의 예측 변수값    13.3.6 감독 학습 vs. 비감독 학습 13.4 전형적인 분류 프로젝트의 워크플로우   13.4.1 워크플로우 1 단계: 분류 모델 훈련   13.4.2 워크플로우 2 단계: 분류 모델 평가   13.4.3 워크플로우 3 단계: 모델 실전 적용 13.5 단계적인 단순 분류 예제   13.5.1 데이터와 도전   13.5.2 색이 채워진 도형을 찾기 위한 모델의 훈련: 미리 생각하기   13.5.3 모델 훈련용 학습 알고리즘 선택하기   13.5.4 색채움 분류기의 성능 향상 13.6 요약 CHAPTER 14 분류기 훈련하기14.1 머하웃 분류기 구축을 위해 특성 추출하기 14.2 미가공 데이터를 분류 가능 데이터로 전처리하기   14.2.1 미가공 데이터 변형하기   14.2.2 컴퓨터를 이용한 마케팅 예제 14.3 분류 가능 데이터를 벡터로 변환하기   14.3.1 벡터로 데이터 표현하기   14.3.2 머하웃 API를 사용한 특성 해시 14.4 20개 뉴스그룹 데이터 셋을 SGD로 분류하기   14.4.1 시작하기: 데이터 셋을 간단히 살펴보기   14.4.2 20개 뉴스그룹 데이터를 파싱하고 특성 토큰화하기   14.4.3 20개 뉴스그룹 데이터 처리용 훈련 코드 14.5 분류기 훈련을 위한 알고리즘 선택하기   14.5.1 비병렬이지만 강력한 알고리즘: SGD와 SVM 사용하기   14.5.2 나이브 분류기의 능력: 나이브 베이즈와 보완 나이브 베이즈 사용하기   14.5.3 정교한 구조의 힘: 랜덤 포레스트 알고리즘 사용하기 14.6 20개 뉴스그룹 데이터를 나이브 베이즈로 분류하기   14.6.1 시작하기: 나이브 베이즈로 데이터 추출하기   14.6.2 나이브 베이즈 분류기 훈련하기   14.6.3 나이브 베이즈 모델 테스트하기 14.7 요약 CHAPTER 15 분류기 평가와 튜닝15.1 머하웃에서 분류기 평가하기   15.1.1 빠른 피드백 얻기   15.1.2 "좋음"이 무엇을 의미하는지 결정하기   15.1.3 에러 비용의 차이 인식하기 15.2 분류기 평가 API   15.2.1 AUC 계산   15.2.2 혼동 행렬과 엔트로피 측정   15.2.3 평균 로그 우도 계산하기   15.2.4 모델 분해하기    15.2.5 20개 뉴스그룹의 SGD 분류기 성능 15.3 언제 분류기의 성능이 나빠지나?    15.3.1 목표 누설   15.3.2 잘못된 특성 추출 15.4 더 나은 성능을 위한 튜닝   15.4.1 문제 튜닝   15.4.2 분류기 튜닝 15.5 요약 CHAPTER 16 분류기 실전 배치하기16.1 초대형 시스템 적용 프로세스   16.1.1 문제 확인   16.1.2 필요에 따라 특성 추출 최적화하기   16.1.3 필요에 따라 벡터 인코딩 최적화하기    16.1.4 확장성을 가진 분류 서비스 배치하기 16.2 규모와 속도 요구 수준 결정하기   16.2.1 얼마나 커야 크다고 할 수 있나?   16.2.2 크기 vs. 속도 균형 맞추기 16.3 대형 시스템용 훈련 파이프라인 구축하기   16.3.1 대규모 데이터 취득과 유지   16.3.2 반정규화와 다운샘플링   16.3.3 훈련 중 발생할 수 있는 위험    16.3.4 고속으로 데이터를 읽고 인코딩하기 16.4 머하웃 분류기와 통합하기   16.4.1 미리 계획하기: 통합의 중요한 이슈   16.4.2 모델의 직렬화 16.5 예제: 쓰리프트 기반의 분류 서버   16.5.1 분류 서버 실행하기   16.5.2 분류 서비스에 접속하기   16.6 요약 CHAPTER 17 사례 학습: Shop It To Me 17.1 왜 Shop It To Me는 머하웃을 선택했나?   17.1.1 Shop It To Me는 무슨 사이트인가?   17.1.2 왜 Shop It To Me에 분류시스템이 필요한가?   17.1.3 나머지 영역에서 머하웃의 균형 잡기 17.2 이메일 마케팅 시스템의 일반적인 구조 17.3 모델 훈련하기   17.3.1 분류 프로젝트의 목표 정하기   17.3.2 시간으로 구분하기   17.3.3 목표 누설 피하기   17.3.4 학습 알고리즘 수정    17.3.5 특성 벡터 인코딩 17.4 분류 속도 향상하기   17.4.1 특성 벡터의 선형 결합   17.4.2 모델 점수의 선형 확장 17.5 요약 Appendix 부록APPENDIX A JVM 튜닝APPENDIX B 머하웃에서 사용하는 수학  B.1 벡터   B.2 행렬   B.3 머하웃의 수학과 하둡 APPENDIX C 참고 문헌APPENDIX D 머하웃 버전 업데이트  D.1 0.6 릴리즈 노트   D.2 0.7 릴리즈 노트

시장조사전문업체 가트너가 2013년 주목할 만한 기술로 꼽은 10대 전략기술은 크게 "모바일, 빅데이터, 클라우드" 3가지 키워드로 압축된다. 데이브 시어리 가트너 수석부사장 겸 가트너 펠로우는 "이제 PC가 아닌 모바일에 주목할 때"라며, "모바일에서 발생한 데이터를 저장하는 공간으로 퍼스널 클라우드가, 모바일 기기에서발생한 데이터를 분석하기 위해선 빅데이터 분석이 중요해졌다"라고 설명했다.

올해 가트너가 꼽은 2013년 전략기술은
- 모바일대전
- 모바일 앱 & HTML5
- 퍼스널 클라우드
- 만물인터넷
- 하이브리드IT&클라우드 컴퓨팅
- 전략적 빅데이터
- 실용분석
- 인메모리 컴퓨팅
- 통합 생태계
- 엔터프라이즈 앱스토어 등이다.

2012년 빅데이터가 얘기가 빠지지 않았다. 2013년도 마찬가지다. 다른점이 있다면 단순히 소셜 데이터를 긁어모아 고객데이터와 결합해 결과를 바라보기보다는 하둡과 같은 NoSQL을 통해 비정형 데이터 그 자체를 분석하는 게 중요해졌다. 가트너는 기업의 데이터웨어하우스(DW)는 죽었다며, 새로운 데이터 분석 기술을 결합해 빅데이터 시대를 맞이할 필요가 있다고 주장했다.

이 책은 머하웃의 핵심 개념인 추천엔진, 군집, 분류를 알기 쉽게 기술하고 있다. 머하웃에 대한 개념을 다루다 보니 기계학습이나 빅데이터를 처음 접하는 독자에게는 많은 선수 지식이 필요하다. 기계 학습(machine learning)의 선수지식으로는 베이즈 정리가 있다. 베이즈 정리는 두 확률 변수의 사전 확률과 사후 확률 사이의 관계를 나타내는 정리로, 베이지안 확률론 해석에 따르면 베이즈 정리는 새로운 근거가 제시될 때 사후 확률이 어떻게 갱신되는지를 구한다. 그 외의 선수 지식은 책에서 일부 다루고 있다.

이 책의 장ㆍ단점은 다음과 같다.
장점
1. 다양한 실전 예제의 사용으로 데이터를 분석
2. 추천엔진의 다양한 응용
3. 레거시 시스템과 머하웃 시스템의 응용 사례
4. 부록(성능향상, 수학, 머하웃 History)

단점
1. 하둡 및 기계학습에 대한 정보 부족
2. 책의 범위를 벗어나는 정보에 대한 참고 정보 부재

이 책에서는 머하웃에 대해서만 다루어지다 보니 하둡에 대해서는 깊이 있는 내용을 다루지는 않는다는 아쉬움이 남는다. 하지만 빅데이터를 활용하여 추천ㆍ군집ㆍ분류 기능을 제공하고 싶은 개발자, 인공지능ㆍ기계학습 분야의 핵심 연구자나 이를 배우고 싶은 학생, 빅테이터를 효율적으로 관리하려는 기술 기획자가 읽어 보기에는 좋은 책이다.

결제하기
• 문화비 소득공제 가능
• 배송료 : 2,000원배송료란?

배송료 안내

  • 20,000원 이상 구매시 도서 배송 무료
  • 브론즈, 실버, 골드회원이 주문하신 경우 무료배송

무료배송 상품을 포함하여 주문하신 경우에는 구매금액에 관계없이 무료로 배송해 드립니다.

닫기

리뷰쓰기

닫기
* 상품명 :
머하웃 완벽 가이드(Mahout in Action): 하둡에 딱 맞는 빅데이터를 활용한 기계학습
* 제목 :
* 별점평가
* 내용 :

* 리뷰 작성시 유의사항

글이나 이미지/사진 저작권 등 다른 사람의 권리를 침해하거나 명예를 훼손하는 게시물은 이용약관 및 관련법률에 의해 제재를 받을 수 있습니다.

1. 특히 뉴스/언론사 기사를 전문 또는 부분적으로 '허락없이' 갖고 와서는 안됩니다 (출처를 밝히는 경우에도 안됨).
2. 저작권자의 허락을 받지 않은 콘텐츠의 무단 사용은 저작권자의 권리를 침해하는 행위로, 이에 대한 법적 책임을 지게 될 수 있습니다.

오탈자 등록

닫기
* 도서명 :
머하웃 완벽 가이드(Mahout in Action): 하둡에 딱 맞는 빅데이터를 활용한 기계학습
* 구분 :
* 상품 버전
종이책 PDF ePub
* 페이지 :
* 위치정보 :
* 내용 :

도서 인증

닫기
도서명*
머하웃 완벽 가이드(Mahout in Action): 하둡에 딱 맞는 빅데이터를 활용한 기계학습
구입처*
구입일*
부가기호*
부가기호 안내

* 온라인 또는 오프라인 서점에서 구입한 도서를 인증하면 마일리지 500점을 드립니다.

* 도서인증은 일 3권, 월 10권, 년 50권으로 제한되며 절판도서, eBook 등 일부 도서는 인증이 제한됩니다.

* 구입하지 않고, 허위로 도서 인증을 한 것으로 판단되면 웹사이트 이용이 제한될 수 있습니다.

닫기

해당 상품을 장바구니에 담았습니다.이미 장바구니에 추가된 상품입니다.
장바구니로 이동하시겠습니까?

자료실

최근 본 상품1