怎么做好網(wǎng)站分析這個項(xiàng)目琴儿,大數(shù)據(jù)行業(yè)必讀

導(dǎo)讀: 網(wǎng)站分析也稱Web分析(web analytics)。一言以蔽之嘁捷,對于網(wǎng)站分析造成,個人的理解是:網(wǎng)站分析通過對網(wǎng)站各項(xiàng)數(shù)據(jù)指標(biāo)進(jìn)行解讀與分析,從而了解和歸納網(wǎng)站瀏覽者的行為及洞察行為背后的需求雄嚣,有針對性地對網(wǎng)站進(jìn)行整體或細(xì)節(jié)的改善晒屎,提升網(wǎng)站運(yùn)營水平和更好的滿足網(wǎng)站用戶需求』荷總之鼓鲁,網(wǎng)站分析是網(wǎng)站運(yùn)營的一個核心模塊。網(wǎng)站運(yùn)營人員通過網(wǎng)站分析來改善網(wǎng)站和提高業(yè)績港谊。

下面就簡單介紹一下在網(wǎng)站分析項(xiàng)目中用到的幾個知識點(diǎn)簡介

1骇吭,HDFS簡介

HDFS(Hadoop Distributed File System )Hadoop分布式文件系統(tǒng)。是根據(jù)google發(fā)表的論文翻版的歧寺。論文為GFS(Google File System)Google 文件系統(tǒng)

HDFS有很多特點(diǎn):

① 保存多個副本绵跷,且提供容錯機(jī)制,副本丟失或宕機(jī)自動恢復(fù)成福。默認(rèn)存3份。

② 運(yùn)行在廉價的機(jī)器上荆残。

③ 適合大數(shù)據(jù)的處理奴艾。多大?多心谒埂蕴潦?HDFS默認(rèn)會將文件分割成block,64M為1個block俘闯。然后將block按鍵值對存儲在HDFS上潭苞,并將鍵值對的映射存到內(nèi)存中。如果小文件太多真朗,那內(nèi)存的負(fù)擔(dān)會很重此疹。

如上圖所示,HDFS也是按照Master和Slave的結(jié)構(gòu)遮婶。分NameNode蝗碎、SecondaryNameNode、DataNode這幾個角色旗扑。

1蹦骑,NameNode:是Master節(jié)點(diǎn),是大領(lǐng)導(dǎo)臀防。管理數(shù)據(jù)塊映射眠菇;處理客戶端的讀寫請求边败;配置副本策略;管理HDFS的名稱空間捎废;

2笑窜,SecondaryNameNode:是一個小弟,分擔(dān)大哥namenode的工作量缕坎;是NameNode的冷備份怖侦;合并fsimage和fsedits然后再發(fā)給namenode。

3谜叹, DataNode:Slave節(jié)點(diǎn)匾寝,奴隸,干活的荷腊。負(fù)責(zé)存儲client發(fā)來的數(shù)據(jù)塊block艳悔;執(zhí)行數(shù)據(jù)塊的讀寫操作。

4女仰,熱備份:b是a的熱備份猜年,如果a壞掉。那么b馬上運(yùn)行代替a的工作疾忍。

5乔外,冷備份:b是a的冷備份,如果a壞掉一罩。那么b不能馬上代替a工作杨幼。但是b上存儲a的一些信息,減少a壞掉之后的損失聂渊。

6差购, fsimage:元數(shù)據(jù)鏡像文件(文件系統(tǒng)的目錄樹。)

7汉嗽, edits:元數(shù)據(jù)的操作日志(針對文件系統(tǒng)做的修改操作記錄)

8欲逃,namenode內(nèi)存中存儲的是=fsimage+edits。

SecondaryNameNode負(fù)責(zé)定時默認(rèn)1小時饼暑,從namenode上稳析,獲取fsimage和edits來進(jìn)行合并,然后再發(fā)送給namenode撵孤。減少namenode的工作量迈着。

2,flume概述

Flume是Cloudera提供的一個高可用的邪码,高可靠的裕菠,分布式的海量日志采集、聚合和傳輸?shù)南到y(tǒng)闭专,F(xiàn)lume支持在日志系統(tǒng)中定制各類數(shù)據(jù)發(fā)送方奴潘,用于收集數(shù)據(jù)旧烧;同時,F(xiàn)lume提供對數(shù)據(jù)進(jìn)行簡單處理画髓,并寫到各種數(shù)據(jù)接受方(可定制)的能力掘剪。我們選用flume對內(nèi)部多個系統(tǒng)的日志進(jìn)行信號的采集、管理和查詢奈虾,目前僅實(shí)現(xiàn)了信息管理功能夺谁,進(jìn)一步會對報(bào)警、統(tǒng)計(jì)等功能進(jìn)行開發(fā)肉微。

flume的主要組件包括:

Source,SourceRunner,Interceptor,Channel,ChannelSelector匾鸥,ChannelProcessor,Sink,SinkRunner,SinkProcessor,SinkSelector等

工作流程包含兩個部分:

source->channel碉纳,數(shù)據(jù)由source寫入channel勿负,主動模式,主要步驟如下:

一個SourceRunner包含一個Source對象劳曹,一個Source對象包含一個ChannelProcessor對象奴愉,一個ChannelProcessor對象包含多個Interceptor對象和一個ChannelSelector對象

1)SourceRunner啟動Source,Source接收Event

2) Source調(diào)用ChannelProcessor

3)ChannelProcessor調(diào)用Interceptor進(jìn)行過濾Event操作

4)ChannelProcessor調(diào)用ChannelSelector對象根據(jù)配置的策略選擇Event對應(yīng)的Channel(replication和multiplexing兩種)

5)Source將Event發(fā)送到對應(yīng)的Channel中

channel->sink铁孵,數(shù)據(jù)由sink主動從channel中拉榷稹(將壓力分?jǐn)偟絪ink,這一點(diǎn)類似于kafka的consumer)

一個SinkRunner對象包含一個SinkProcessor對象,一個SinkProcessor包含多個Sink或者一個SinkSelector

1)SinkRunner啟動SinkProcessor(DefaultSinkProcessor,F(xiàn)ailoverSinkProcessor蜕劝,LoadBalancingSinkProcessor 3種)

2)如果是DefaultSinkProcessor的話账忘,直接啟動單個Sink

3)FailoverSinkProcessor,LoadBalancingSinkProcessor對應(yīng)的是SinkGroup

4)FailoverSinkProcessor從SinkGroup中選擇出Sink并啟動

5)LoadBalancingSinkProcessor包含SinkSelector熙宇,會根據(jù)SinkSelector在SinkGroup中選擇Sink并啟動

6)Sink 從Channel中消費(fèi)Event信息

3,MapReduce簡介

MapReduce是個非常靈活和強(qiáng)大的數(shù)據(jù)聚合工具溉浙。它的好處是可以把一個聚合任務(wù)分解為多個小的任務(wù)烫止,分配到多服務(wù)器上并行處理。

MongoDB也提供了MapReduce戳稽,當(dāng)然查詢語肯定是JavaScript馆蠕。MongoDB中的MapReduce主要有以下幾階段:

1. Map:把一個操作Map到集合中的每一個文檔

2. Shuffle: 根據(jù)Key分組對文檔,并且為每個不同的Key生成一系列(>=1個)的值表(List of values)惊奇。

3. Reduce: 處理值表中的元素互躬,直到值表中只有一個元素。然后將值表返回到Shuffle過程颂郎,循環(huán)處理吼渡,直到每個Key只對應(yīng)一個值表,并且此值表中只有一個元素乓序,這就是MR的結(jié)果寺酪。

4. Finalize:此步驟不是必須的坎背。在得到MR最終結(jié)果后,再進(jìn)行一些數(shù)據(jù)“修剪”性質(zhì)的處理寄雀。

MongoDB中使用emit函數(shù)向MapReduce提供Key/Value對得滤。

Reduce函數(shù)接受兩個參數(shù):Key,emits. Key即為emit函數(shù)中的Key。 emits是一個數(shù)組盒犹,它的元素就是emit函數(shù)提供的Value懂更。

Reduce函數(shù)的返回結(jié)果必須要能被Map或者Reduce重復(fù)使用,所以返回結(jié)果必須與emits中元素結(jié)構(gòu)一致急膀。

Map或者Reduce函數(shù)中的this關(guān)鍵字沮协,代表當(dāng)前被Mapping文檔。

4脖阵,Spark簡介

什么是 Spark

Spark 是一個針對大規(guī)模數(shù)據(jù)處理的快速通用引擎

Spark 是 MapReduce 的替代方案皂股,而且兼容 HDFS, Hive, 可容入Hadoop 的生態(tài)系統(tǒng),彌補(bǔ) MapReduce 的不足

Spark核心: RDD(Resilient Distributed Datasets 彈性分布式數(shù)據(jù)集)

RDD 可簡單理解為: 一個提供了很多操作接口的數(shù)據(jù)集合命黔,分布式存儲于集群環(huán)境中的存儲設(shè)備中(內(nèi)存或硬盤)煤傍,其中包括容錯,并行處理等功能

==> Spark 特點(diǎn)

---> 快

----?優(yōu)點(diǎn):與Mapreduce 相比唁毒,Spark 基于內(nèi)存運(yùn)算常侦,運(yùn)算速度要快100倍,基于硬盤計(jì)算坠宴,運(yùn)算速度要快 10 倍

----?缺點(diǎn):沒有對內(nèi)存進(jìn)行管理洋魂,把所有的內(nèi)存管理都交給應(yīng)用程序,以彌補(bǔ)MapReduce的不足喜鼓,

容易出現(xiàn) OOM(out of memory), 可使用 Java Heap Dump 工具分析 Java 程序的內(nèi)存溢出

---> 易用

----?Spark 支持 Java 副砍,Python, Scala 的 API

----?支持80多種算法

----?支持交互式,可以在shell 中使用Spark 驗(yàn)證解決問題的方法

通用(生態(tài)圈)

----?批處理

----?交互式查詢 (Spark SQL)

----?實(shí)時流處理 (Spark Streaming)

----?機(jī)器學(xué)習(xí) ( Spark MLlib )

----?圖計(jì)算 ( GraphX )

----?與 Hadoop 很好的融合庄岖, 可以直接操作 HDFS, 并提供 Hive on Spark, Pig on Spark的框架集成 Hadoop(配置Hive on Spark 還不成熟)

兼容性 可以非常方便的與其它開源產(chǎn)品進(jìn)行融合

----?可以使用 Hadoop 的 YARN 和 Apache Mesos 作為它的資源管理調(diào)度器

----?可以處理所有 Hadoop 支持的數(shù)據(jù):HDFS豁翎, HBase, Cassandra 等

----?不需要做任何的數(shù)據(jù)遷移就可以使用 Spark 的強(qiáng)大處理能力

----?可以不依賴第三方的資源管理和調(diào)度器隅忿,實(shí)現(xiàn) Standalone 作為它的內(nèi)置的資源管理和調(diào)試框架心剥,降低部署的復(fù)雜性

----?提供了在 EC2 上部署 Standalone 的Spark 集群工具

Spark 生太圈

---> Spark Core

---> Spark SQL

---> Spark Streaming

---> Spark MLLib: 機(jī)器學(xué)習(xí)

---> Spark GraphX: 圖計(jì)算

上面這四種知識點(diǎn)在我們這個網(wǎng)站分析項(xiàng)目里面是需要用到的,那么這個網(wǎng)站分析項(xiàng)目具體有哪些內(nèi)容呢背桐?下面我就大家介紹一下這個項(xiàng)目的制定框架优烧。可以加我扣扣3300863615

來學(xué)習(xí)下面這個項(xiàng)目链峭,我這里會有視頻資料畦娄。

網(wǎng)站分析項(xiàng)目:

1,項(xiàng)目介紹

1

2,業(yè)務(wù)數(shù)據(jù)存儲:HDFS

2

3,業(yè)務(wù)數(shù)據(jù)采集:Flume

3

4,數(shù)據(jù)清洗與加工:MapReduce

4

5,數(shù)據(jù)清洗與加工:Spark

5

6纷责,項(xiàng)目代碼講解及項(xiàng)目總結(jié)

以上這些內(nèi)容你了解完了這個項(xiàng)目也就可以完整的做好捍掺,有需要學(xué)習(xí)的可以關(guān)注我,我這里有整個完整的項(xiàng)目的視頻再膳,學(xué)完以后就可以做好這個項(xiàng)目了挺勿!

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市喂柒,隨后出現(xiàn)的幾起案子不瓶,更是在濱河造成了極大的恐慌,老刑警劉巖灾杰,帶你破解...
    沈念sama閱讀 219,110評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件蚊丐,死亡現(xiàn)場離奇詭異,居然都是意外死亡艳吠,警方通過查閱死者的電腦和手機(jī)麦备,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,443評論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來昭娩,“玉大人凛篙,你說我怎么就攤上這事±该欤” “怎么了呛梆?”我有些...
    開封第一講書人閱讀 165,474評論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長磕诊。 經(jīng)常有香客問我填物,道長,這世上最難降的妖魔是什么霎终? 我笑而不...
    開封第一講書人閱讀 58,881評論 1 295
  • 正文 為了忘掉前任滞磺,我火速辦了婚禮,結(jié)果婚禮上莱褒,老公的妹妹穿的比我還像新娘雁刷。我一直安慰自己,他們只是感情好保礼,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,902評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著责语,像睡著了一般炮障。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上坤候,一...
    開封第一講書人閱讀 51,698評論 1 305
  • 那天胁赢,我揣著相機(jī)與錄音,去河邊找鬼白筹。 笑死智末,一個胖子當(dāng)著我的面吹牛谅摄,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播系馆,決...
    沈念sama閱讀 40,418評論 3 419
  • 文/蒼蘭香墨 我猛地睜開眼送漠,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了由蘑?” 一聲冷哼從身側(cè)響起闽寡,我...
    開封第一講書人閱讀 39,332評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎尼酿,沒想到半個月后爷狈,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,796評論 1 316
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡裳擎,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,968評論 3 337
  • 正文 我和宋清朗相戀三年涎永,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片鹿响。...
    茶點(diǎn)故事閱讀 40,110評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡羡微,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出抢野,到底是詐尸還是另有隱情拷淘,我是刑警寧澤,帶...
    沈念sama閱讀 35,792評論 5 346
  • 正文 年R本政府宣布指孤,位于F島的核電站启涯,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏恃轩。R本人自食惡果不足惜结洼,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,455評論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望叉跛。 院中可真熱鬧松忍,春花似錦、人聲如沸筷厘。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,003評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽酥艳。三九已至摊溶,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間充石,已是汗流浹背莫换。 一陣腳步聲響...
    開封第一講書人閱讀 33,130評論 1 272
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人拉岁。 一個月前我還...
    沈念sama閱讀 48,348評論 3 373
  • 正文 我出身青樓坷剧,卻偏偏與公主長得像,于是被迫代替她去往敵國和親喊暖。 傳聞我的和親對象是個殘疾皇子惫企,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,047評論 2 355

推薦閱讀更多精彩內(nèi)容