[ 收藏 ] [ 繁体中文 ]  
臺灣貨到付款、ATM、超商、信用卡PAYPAL付款,4-7個工作日送達,999元臺幣免運費   在線留言 商品價格為新臺幣 
首頁 電影 連續劇 音樂 圖書 女裝 男裝 童裝 內衣 百貨家居 包包 女鞋 男鞋 童鞋 計算機周邊

商品搜索

 类 别:
 关键字:
    

商品分类

Hadoop實戰手冊
該商品所屬分類:圖書 -> 編程語言
【市場價】
475-688
【優惠價】
297-430
【作者】 JonathanROwens 
【出版社】人民郵電出版社 
【ISBN】9787115337955
【折扣說明】一次購物滿999元台幣免運費+贈品
一次購物滿2000元台幣95折+免運費+贈品
一次購物滿3000元台幣92折+免運費+贈品
一次購物滿4000元台幣88折+免運費+贈品
【本期贈品】①優質無紡布環保袋,做工棒!②品牌簽字筆 ③品牌手帕紙巾
版本正版全新電子版PDF檔
您已选择: 正版全新
溫馨提示:如果有多種選項,請先選擇再點擊加入購物車。
*. 電子圖書價格是0.69折,例如了得網價格是100元,電子書pdf的價格則是69元。
*. 購買電子書不支持貨到付款,購買時選擇atm或者超商、PayPal付款。付款後1-24小時內通過郵件傳輸給您。
*. 如果收到的電子書不滿意,可以聯絡我們退款。謝謝。
內容介紹



出版社:人民郵電出版社
ISBN:9787115337955
商品編碼:1107913101

品牌:文軒
出版時間:2014-03-01
代碼:59

作者:JonathanR.Owens

    
    
"
作  者:Jonathan R. Owens 著 傅傑 等 譯
/
定  價:59
/
出 版 社:人民郵電出版社
/
出版日期:2014年03月01日
/
頁  數:242
/
裝  幀:平裝
/
ISBN:9787115337955
/
主編推薦
超級實用的技術手冊,給出有助於快速解決諸多Hadoop相關技術問題的實際解決方案。書中包含豐富的簡單、實用的代碼示例。
《Hadoop實戰手冊》特色是:
文字簡潔,易於讀者理解。
精挑細選,關注最重要的任務和問題。
細心組織,提供高效的問題解決方案。
講解透徹,清晰解讀每個操作步驟。
舉一反三,將解決方案應用到其他場景中。
目錄
●第1章Hadoop分布式文件繫統——導入和導出數據
1.1介紹
1.2使用Hadoopshell命令導入和導出數據到HDFS
1.3使用distcp實現集群間數據復制
1.4使用Sqoop從MySQL數據庫導入數據到HDFS
1.5使用Sqoop從HDFS導出數據到MySQL
1.6配置Sqoop以支持SQLServer
1.7從HDFS導出數據到MongoDB
1.8從MongoDB導入數據到HDFS
1.9使用Pig從HDFS導出數據到MongoDB
1.10在Greenplum外部表中使用HDFS
1.11利用Flume加載數據到HDFS中
第2章HDFS
2.1介紹
2.2讀寫HDFS數據
2.3使用LZO壓縮數據
2.4讀寫序列化文件數據
2.5使用Avro序列化數據
2.6使用Thrift序列化數據
2.7使用ProtocolBuffers序列化數據
2.8設置HDFS備份因子
2.9設置HDFS塊大小
第3章抽取和轉換數據
3.1介紹
3.2使用MapReduce將Apache日志轉換為TSV格式
3.3使用ApachePig過濾網絡服務器日志中的爬蟲訪問量
3.4使用ApachePig根據時間戳對網絡服務器日志數據排序
3.5使用ApachePig對網絡服務器日志進行會話分析
3.6通過Python擴展ApachePig的功能
3.7使用MapReduce及二次排序計算頁面訪問量
3.8使用Hive和Python清洗、轉換地理事件數據
3.9使用Python和HadoopStreaming執行時間序列分析
3.10在MapReduce中利用 ltipleOutputs輸出多個文件
3.11創建用戶自定義的HadoopWritable及InputFormat讀取地理事件數據
第4章使用Hive、Pig和MapReduce處理常見的任務
4.1介紹
4.2使用Hive將HDFS中的網絡日志數據映射為外部表
4.3使用Hive動態地為網絡日志查詢結果創建Hive表
4.4利用Hive字符串UDF拼接網絡日志數據的各個字段
4.5使用Hive截取網絡日志的IP字段並確定其對應的國家
4.6使用MapReduce對新聞檔案數據生成n—gram
4.7通過MapReduce使用分布式緩存查找新聞檔案數據中包含關鍵詞的行
4.8使用Pig加載一個表並執行包含GROUPBY的SELECT操作
第5章高級連接操作
5.1介紹
5.2使用MapReduce對數據進行連接
5.3使用ApachePig對數據進行復制連接
5.4使用ApachePig對有序數據進行歸並連接
5.5使用ApachePig對傾斜數據進行傾斜連接
5.6在ApacheHive中通過map端連接對地理事件進行分析
5.7在ApacheHive通過優化的全外連接分析地理事件數據
5.8使用外部鍵值存儲(Redis)連接數據
第6章大數據分析
6.1介紹
6.2使用MapReduce和Combiner統計網絡日志數據集中的獨立IP數
6.3運用Hive日期UDF對地理事件數據集中的時間日期進行轉換與排序
6.4使用Hive創建基於地理事件數據的每月死亡報告
6.5實現Hive用戶自定義UDF用於確認地理事件數據的來源可靠性
6.6使用Hive的map/reduce操作以及Python標記的無暴力發生的時間區間
6.7使用Pig計算Audioscrobbler數據集中藝術家之間的餘弦相似度
6.8使用Pig以及datafu剔除Audioscrobbler數據集中的離群值
第7章高級大數據分析
7.1介紹
7.2使用ApacheGiraph計算PageRank
7.3使用ApacheGiraph計算單源最短路徑
7.4使用ApacheGiraph執行分布式寬度優先搜索
7.5使用ApacheMahout計算協同過濾
7.6使用ApacheMahout進行聚類
7.7使用ApacheMahout進行情感分類
第8章調試
8.1介紹
8.2在MapReduce中使用Counters監測異常記錄
8.3使用MRUnit開發和測試MapReduce
8.4本地模式下開發和測試MapReduce
8.5運行MapReduce作業跳過異常記錄
8.6在流計算作業中使用Counters
8.7更改任務狀態顯示調試信息
8.8使用illustrate調試Pig作業
第9章繫統管理
9.1介紹
9.2在偽分布模式下啟動Hadoop
9.3在分布式模式下啟動Hadoop
9.4添加一個新節點
9.5節點安全退役
9.6NameNode故障恢復
9.7使用Ganglia監控集群
9.8MapReduce作業參數調優
第10章使用ApacheAccumulo進行持久化
10.1介紹
10.2在Accumulo中設計行鍵存儲地理事件
10.3使用MapReduce批量導入地理事件數據到Accumulo
10.4設置自定義字段約束Accumulo中的地理事件數據
10.5使用正則過濾器查詢結果
10.6使用SumCombiner計算同一個鍵的不同版本的死亡數總和
10.7使用Accumulo級安全的掃描
10.8使用MapReduce聚集Accumulo中的消息源
內容簡介
這是一本Hadoop實用手冊,主要針對實際問題給出相應的解決方案。歐文斯等編著的《Hadoop實戰手冊》特色是以實踐結合理論分析,手把手教讀者如何操作,並且對每個操作都做詳細的解釋,對一些重要的知識點也做了必要的拓展。全書共包括3個部分,第一部分為基礎篇,主要介紹Hadoop數據導入導出、HDFS的概述、Pig與Hive的使用、ETL和簡單的數據處理,還介紹了MapReduce的調試方式;第二部分為數據分析高級篇,主要介紹高級聚合、大數據分析等技巧;第三部分為繫統管理篇,主要介紹Hadoop的部署的各種模式、添加新節點、退役節點、快速恢復、MapReduce調優等。
《Hadoop實戰手冊》適合各個層次的Hadoop技術人員閱讀。通過閱讀《Hadoop實戰手冊》,Hadoop初學者可以使用Hadoop來進行數據處理,Hadoop工程師或者數據挖掘工程師可以解決復雜的業務分析,H等
作者簡介
Jonathan R. Owens 著 傅傑 等 譯
  Jonathan R.Owens:軟件工程師,擁有Java和C++技術背景,最近主要從事Hadoop及相關分布式處理技術工作。目前就職於comScore公司,為核心數據處理團隊成員。comScore是一家知名的從事數字測量與分析的公司,公司使用Hadoop及其他定制的分布式繫統對數據進行聚合、分析和管理,每天處理超過400億單的交易。

Jon Lentz:comScore核心數據處理團隊軟件工程師。他更傾向於使用Pig腳本來解決問題。在加入comScore之前,他主要開發優化供應鏈和分配固定收益證券的軟件。

Brian Femia等



"
 
網友評論  我們期待著您對此商品發表評論
 
相關商品
【同作者商品】
JonathanROwens
  本網站暫時沒有該作者的其它商品。
有該作者的商品通知您嗎?
請選擇作者:
JonathanROwens
您的Email地址
在線留言 商品價格為新臺幣
關於我們 送貨時間 安全付款 會員登入 加入會員 我的帳戶 網站聯盟
DVD 連續劇 Copyright © 2024, Digital 了得網 Co., Ltd.
返回頂部