精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

數據工程師分析工作中用到的數據連接配置模型

5RJg_mcuworld ? 2018-01-15 11:21 ? 次閱讀

作為數據工程師或者數據分析師,經常會跟各種數據打交道,其中,獲取數據這一關是無法避免的,下面,我就將自己時常工作中用到的數據連接配置模型分享出來,供大家交流。

MySQL數據庫

mysql數據庫是目前用的最多的數據庫之一,此處我做的是讀和寫的接口,而刪除和更新操作,一般不是分析師做的,而是開發,所以我沒有做這個。

importMySQLdb

import pandas as pd

from sqlalchemy import create_engine

class con_analyze:

"""數據分析平臺連接"""

def __init__(self, database='myanalyze'):

self.database = database

self.conn =None

def connect(self):

self.conn =MySQLdb.connect(host='***', user='root', passwd='***', db=self.database, charset='utf8')

def query(self, sql):

try:

self.connect()

data = pd.read_sql(sql,self.conn)

except(AttributeError,MySQLdb.OperationalError):

self.connect()

data = pd.read_sql(sql,self.conn)# 讀取數據出現錯誤,再次連接

return data

def store(self, mydataframe, table_name, if_exists='replace'):

conn2 ="mysql+mysqldb://root:***@***:3306/%s"%self.database

local_engine = create_engine(conn2)

mydataframe.to_sql(table_name, local_engine, if_exists=if_exists, index=False, chunksize=10000)

'''還可以加一個函數用來執行單條sql語句,不僅僅是讀取數據,還可以update,create等'''

作為一個鏈接類來使用,初始化的時候給出的conn是None,只有在執行查詢函數的時候才創建鏈接,(鏈接中,我隱去了自己的host信息,你需要將自己的host填進去)

查詢的時候使用了try語句,如果鏈接不成功或者查詢不成功,就會出錯,如果是鏈接不成功,那就在異常中再次連接。關于重復執行一段代碼,有一個庫大家可以關注一下:tenacity這個庫能讓你實現更優雅(pythonic)的代碼重復此處讀取數據是使用pandas庫中的read_sql函數,此函數可以直接將查詢結果轉化成一個dataframe,方便了后面的分析工作

存儲功能也是使用dataframe的函數tosql,此函數是將一個df直接轉化成sql數據存入數據庫,如果tablename存在,可以選擇替換(replace)、增加(append)等,如果df很大很長,就需要設置一下chunksize參數

chunksize的設定,程序會自動將你的長達幾十萬行的df迭代存儲,每次只存儲10000行(這個數字是我設定的,你也可以改)。

看到這里,你可能會有疑問,為什么讀和寫的conn不一樣,一個是用 MySQLdb.connect創建,而另一個是用create_engine創建。我想說的是,后面這個conn2其實可以作為讀的連接參數,但是使用 MySQLdb.connect創建的連接卻不一定能用來寫,因為我在實踐中多次運行發生了錯誤,所以我就改了。

其實,其他的數據庫可以類似這種做法,給自己的項目配置一個連接類,使用的時候應該是這樣的:

首先,你需要把代碼放在一個單獨的配置文件,比如config.py中

然后在你需要使用的地方,導入此配置文件

from config import con_analyze

classAnalyzeData:

def __init__(self):

# 此處初始化,可以帶一個參數:database,默認為myanalyze

self.conn = con_analyze()

# self.conn2 = con_analyze("myanalyze_2")

def get_data(self, sql):

# 執行sql查詢結果保存到df中

df =self.conn.query(sql=sql)

def store_data(self, df):

# 將dataframe類型的數據df,存入名為dd_name的數據表中

self.conn.store(df,'db_name')

MongoDB

mongodb是一個非結構化數據庫,里面存儲的數據類似于json,是鍵值對的形式,如果你遇到了需要查詢mongodb中的數據,下面我就簡單介紹一下。

數據工程師分析工作中用到的數據連接配置模型

同樣,也是要建立一個類,這是為了規范。

import pymongo

import pandas as pd

classConn_Mongo:

"""mongo 數據庫連接"""

def __init__(self):

self.mongo_utoken = pymongo.MongoClient('mongodb://***:27000').utoken # 用戶表

def get_user_data_mongo(self,list_id):

"""

通過連接 mongo查找

"""

user_data = pd.DataFrame(list(self.mongo_fotor.userinfo.find({'FToken':{'$in': list(list_id)}})))

return user_data

這個畢竟簡單,就是一個查詢操作,我是先傳入一串id,根據id找到對應的信息。一般來說,mongodb的庫容量都比較大,所以我是有針對的查詢相關信息。

這里用到了pymongo庫,通過它創建一個到相應地址(我用*隱掉了)的連接,后面的.utoken是對應的庫名稱,其實你也可以把它作為參數,在初始化的時候傳進去。

后面查詢的時候使用了find函數,其前面的userinfo是表的名稱,find的參數也是鍵值對的形式,這里我指定了鍵的名稱"FToken",其值{'$in': list(list_id)}代表的意思是:在什么什么中。

將id 做成了一個list(為了大家理解,取名為list_id),相關語法大家可以查閱一下。

Flurry

如果你的工作涉及到了app的數據,那經常會使用Flurry獲取數據。

Flurry是一個移動統計平臺,雖然是國外的,但國內依然可以用(不像谷歌分析被禁了),iosAndroid應用的運營數據都可以在上面統計查詢。

如果你還沒有,又想了解的,可以戳這里:Flurry

數據工程師分析工作中用到的數據連接配置模型

對,網頁瀏覽的話,界面就是這樣的。

常用的功能是用戶數據

數據工程師分析工作中用到的數據連接配置模型

以及功能點擊事件

數據工程師分析工作中用到的數據連接配置模型

不過,這不是我要說的重點,上面只是讓你看一下Flurry長什么樣,現在我要寫python接口,將這些數據取出。

Flurry的api地址,請戳這里:Flurry API

這是創建分析報告的api,有別于開發的api

首先,我們需要去申請一個app token,用于獲取連接權限,申請方法請參考:app access token

它是大一串字母

數據工程師分析工作中用到的數據連接配置模型

只要獲取到了這個token,我們就可以創建一個url,用于獲取Flurry里面的數據了,具體看如下的代碼:

import pandas as pd

import json, requests

classConn_Flurry:

"""flurry api data"""

api_token ="******.****.****"

headers ={'Authorization':'Bearer {}'.format(api_token)}

url ="https://api-metrics.flurry.com/public/v1/data/appEvent/day/app?metrics=activeDevices,newDevices,averageTimePerDevice&dateTime=2017-05-23/2017-05-24"

def get_results(self, url=url):

'''

這里使用的url是一個示例,也可以使用get_url函數創建需要的url傳入此函數作為參數

'''

data = requests.get(url, headers=self.headers)

cleaned = json.loads(data.text,'utf-8')

cleaned = pd.DataFrame(cleaned['rows'])

return cleaned

def get_url(self, table='appEvent', timegrain='day', dimensions='app/event', metrics='occurrences',

dateTime='2017-09-23/2017-05-24', filters=""):

'''

若filters為空, 不影響結果

標準的url:endpoint + '/table/timeGrain/dimension1/dimension2;show=all/dimension3{...}?metrics=[comma-separated-metrics]&dateTime=[..]&filters=[...]&topN=[..]&sort=[..]&having=[..]&format=[..]&timeZone=[..]'

App Usage url: endpoint+ "/appUsage/day?metrics=sessions,activeDevices,newDevices&dateTime=2016-06-01/2016-08-01&filters=app|name-in[appname]"

app event url: endpoint + "/appEvent/day/app/appVersion/event?metrics=occurrences&dateTime=2016-07-01/2016-07-03&filters=app|name-in[foo],event|name-in[login,register]"

app event url2: endpoint + "/appEvent/day/app/country?metrics=activeDevices,newDevices&dateTime=2016-07-01/2016-07-03&filters=app|name-in[foo],event|name-in[login]&topN=5&sort=activeDevices|desc"

event parameter: endpoint+ "/eventParams/day/app;show=all/event/paramName/paramValue?metrics=count&dateTime=2016-11-07/2016-11-08&filters=app|name-in[foo],event|name-in[level_complete]"

注意,dimensions的變化,當要看某一事件的具體信息時:app;show=all/event/paramName/paramValue,加了個show=all

注意filters里面filters的格式,可以選擇app名稱和事件名稱

注意timegrain和datetime的關系,常見的就是day和month,datetime的格式也要跟著變

'''

endpoint ='https://api-metrics.flurry.com/public/v1/data'

url ="{}/{}/{}/{}?metrics={}&dateTime={}&filters={}".format(endpoint, table, timegrain, dimensions, metrics,

dateTime, filters)

return url

代碼稍微有點長,中間許多注釋行,但總的來說就是兩個步驟:

1. 構建url

2. 獲取url對應的結果

但是細細說來,這里面涉及到的東西比較多,比如,為什么url的格式是這樣的,還有headers為什么是那樣構造的,還有結果的形式等等

我想說的是,這些在官網api上已有很詳細的說明,我就不搬磚了,不過,如果你有任何疑問,歡迎在評論區留言,我知道的一定盡心解答。

url =self.conn_flurry.get_url('appUsage','month','app','averageTimePerSession,activeDevices,newDevices,sessions',self.time_range)

user_mobile =self.conn_flurry.get_results(url)

上面就是一個簡單的應用,其中time_range應該是這樣的格式

self.time_range ='2017-09/2017-10'

對于這個時間范圍,Flurry默認是左閉右開的,即不包含10月

同理,如果是這樣

那就代表從9月23號起,但是不包含10月24號的結果,這一點尤其要注意。如果你是拿某一段時間內的數據,就很容易忽略這點,導致少拿數據

如果是按天拿還好,有date這個維度,會提醒你到底拿到了哪些天的數據。

題圖:pexels,CC0 授權。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    6899

    瀏覽量

    88842
  • MYSQL數據庫
    +關注

    關注

    0

    文章

    95

    瀏覽量

    9382

原文標題:數據工程師推薦你用的幾個工具

文章出處:【微信號:mcuworld,微信公眾號:嵌入式資訊精選】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    工作中用過美信的哪些產品(回帖獎勵哦)

    大家在平時的研發設計工作中都用過美信公司的哪些產品,曬一曬!相信好多工程師用過美信的產品,歡迎大家過來曬一曬!
    發表于 09-22 16:27

    高級算法工程師-獵頭職位

    國內某電容芯片公司,業內領先,急聘高級算法工程師數枚,待遇豐厚:20K/月左右,上班地點:深圳。詳細要求如下: 主要職責:1、數據分析、通信及信號處理算法模型設計、仿真,并輸出相應設計、仿真文檔;2
    發表于 05-23 17:23

    蘋果急聘結構分析工程師

    /9949750134_TIME_1411718076557.jpg][/url]  ***中提到,蘋果想要能對 iPhone 和 iPod 進行壓力測試的工程師,更準確地說是故障分析、金相學和斷口分析專家,在
    發表于 09-28 09:53

    菜鳥到大神——硬件工程師進階之路

    ,IIC,SPI,UART等等。4、通過每次系統聯調的機會,學習了常用儀器的使用。比如示波器,頻譜儀,邏輯分析儀等等。應該說,通過半年的工作,讓我從一個剛畢業的菜鳥,變成了一個入門的硬件工程師。這些
    發表于 05-19 11:24

    【上海】誠聘高級數據庫開發工程師

    獵頭推薦職位:高級數據庫開發工程師工作職責:1. 承擔項目關鍵開發和部署工作;2. 配合其他技術部門以及測試部門完成項目的交付;3. 參與電商類SAAS平臺
    發表于 07-06 16:42

    【成都】招聘機器學習/數據挖掘/信號與信息處理工程師(可實習)

    招聘崗位機器學習/數據挖掘工程師/信號與信息處理(實習) 崗位職責:1.篩選現場基礎數據,統計總體數據特性;2.快速學習現場數據特性,對各類
    發表于 08-18 10:26

    數據分析需要的技能

    數據時代已經來臨,對復雜凌亂的數據進行整合分析,獲取有用的信息,去支撐政策的制定、決策的形成以及工作的完成,必將成為未來決策重要的手段!從事大數據
    發表于 04-10 15:59

    嵌入式軟件工程師需要掌握哪些專業技能?

    嵌入式軟件工程師做什么?需要掌握哪些專業技能?嵌入式軟件工程師在企業中主要從事嵌入式軟件開發工作工作中會涉及應用層以及底層軟件開發和設計工作
    發表于 12-24 08:19

    工程師怎么在工作中學習

    古人云:“活到老,學到老。”互聯網算是最辛苦的行業之一,“加班”對工程師來說已是“家常便飯”,同時互聯網技術又日新月異,很多工程師都疲于應付,叫苦不堪。以至于長期以來流傳一個很廣的誤解:35歲是程序員工作的終點。
    的頭像 發表于 09-06 10:24 ?4349次閱讀

    數據工程師數據分析師的區別在哪里

    不少朋友都很困惑,大數據工程師數據分析師有什么區別,哪一個的就業好薪資高?
    的頭像 發表于 03-12 11:49 ?1.4w次閱讀

    算法工程師是做什么的 有哪些學習路線

    第一類是做數據模型進行推薦、分類、識別、預測等工作的建模型算法工程師,通常JD上也寫成數據挖掘工程師
    的頭像 發表于 03-26 15:48 ?3.2w次閱讀

    數據工程師工作內容有哪些

    數據工程師工作內容取決于你工作數據流的哪一個環節。
    的頭像 發表于 05-07 16:54 ?5174次閱讀

    數據工程師的日常工作是什么

    工作崗位上,大數據工程師需要基于Hadoop,Spark等構建數據分析平臺,進行設計、開發分布式計算業務。負責大數據平臺(Hadoop,H
    的頭像 發表于 05-30 15:52 ?5626次閱讀

    成為一個優秀的數據工程師需要什么?

    成為數據工程師需要具備哪些技能?數據工程工作存在于各個行業,在銀行業、醫療保健業、大型科技企業、初創企業和其他行業找到
    的頭像 發表于 04-05 17:25 ?2902次閱讀

    數據工程師

    數據工程師數據工程師可以從事對大量數據的采集、清洗、分析、治理、挖掘,并對這些
    發表于 04-12 13:52 ?597次閱讀