精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

手把手教你在windows7上安裝tensorflow-gpu開發(fā)環(huán)境

lviY_AI_shequ ? 來源:未知 ? 作者:李倩 ? 2018-07-16 14:44 ? 次閱讀

手把手教你在windows7上安裝tensorflow-gpu開發(fā)環(huán)境

1、FM背景

在計(jì)算廣告和推薦系統(tǒng)中,CTR預(yù)估(click-through rate)是非常重要的一個(gè)環(huán)節(jié),判斷一個(gè)商品的是否進(jìn)行推薦需要根據(jù)CTR預(yù)估的點(diǎn)擊率來進(jìn)行。在進(jìn)行CTR預(yù)估時(shí),除了單特征外,往往要對(duì)特征進(jìn)行組合。對(duì)于特征組合來說,業(yè)界現(xiàn)在通用的做法主要有兩大類:FM系列與Tree系列。今天,我們就來講講FM算法。

2、one-hot編碼帶來的問題

FM(Factorization Machine)主要是為了解決數(shù)據(jù)稀疏的情況下,特征怎樣組合的問題。已一個(gè)廣告分類的問題為例,根據(jù)用戶與廣告位的一些特征,來預(yù)測(cè)用戶是否會(huì)點(diǎn)擊廣告。數(shù)據(jù)如下:(本例來自美團(tuán)技術(shù)團(tuán)隊(duì)分享的paper)

clicked是分類值,表明用戶有沒有點(diǎn)擊該廣告。1表示點(diǎn)擊,0表示未點(diǎn)擊。而country,day,ad_type則是對(duì)應(yīng)的特征。對(duì)于這種categorical特征,一般都是進(jìn)行one-hot編碼處理。

將上面的數(shù)據(jù)進(jìn)行one-hot編碼以后,就變成了下面這樣 :

因?yàn)槭莄ategorical特征,所以經(jīng)過one-hot編碼以后,不可避免的樣本的數(shù)據(jù)就變得很稀疏。舉個(gè)非常簡(jiǎn)單的例子,假設(shè)淘寶或者京東上的item為100萬,如果對(duì)item這個(gè)維度進(jìn)行one-hot編碼,光這一個(gè)維度數(shù)據(jù)的稀疏度就是百萬分之一。由此可見,數(shù)據(jù)的稀疏性,是我們?cè)趯?shí)際應(yīng)用場(chǎng)景中面臨的一個(gè)非常常見的挑戰(zhàn)與問題。

one-hot編碼帶來的另一個(gè)問題是特征空間變大。同樣以上面淘寶上的item為例,將item進(jìn)行one-hot編碼以后,樣本空間有一個(gè)categorical變?yōu)榱税偃f維的數(shù)值特征,特征空間一下子暴增一百萬。所以大廠動(dòng)不動(dòng)上億維度,就是這么來的。

3、對(duì)特征進(jìn)行組合

普通的線性模型,我們都是將各個(gè)特征獨(dú)立考慮的,并沒有考慮到特征與特征之間的相互關(guān)系。但實(shí)際上,大量的特征之間是有關(guān)聯(lián)的。最簡(jiǎn)單的以電商為例,一般女性用戶看化妝品服裝之類的廣告比較多,而男性更青睞各種球類裝備。那很明顯,女性這個(gè)特征與化妝品類服裝類商品有很大的關(guān)聯(lián)性,男性這個(gè)特征與球類裝備的關(guān)聯(lián)性更為密切。如果我們能將這些有關(guān)聯(lián)的特征找出來,顯然是很有意義的。

一般的線性模型為:

從上面的式子很容易看出,一般的線性模型壓根沒有考慮特征間的關(guān)聯(lián)。為了表述特征間的相關(guān)性,我們采用多項(xiàng)式模型。在多項(xiàng)式模型中,特征xi與xj的組合用xixj表示。為了簡(jiǎn)單起見,我們討論二階多項(xiàng)式模型。具體的模型表達(dá)式如下:

上式中,n表示樣本的特征數(shù)量,xi表示第i個(gè)特征。與線性模型相比,F(xiàn)M的模型就多了后面特征組合的部分。

4、FM求解

從上面的式子可以很容易看出,組合部分的特征相關(guān)參數(shù)共有n(n?1)/2個(gè)。但是如第二部分所分析,在數(shù)據(jù)很稀疏的情況下,滿足xi,xj都不為0的情況非常少,這樣將導(dǎo)致ωij無法通過訓(xùn)練得出。

為了求出ωij,我們對(duì)每一個(gè)特征分量xi引入輔助向量Vi=(vi1,vi2,?,vik)。然后,利用vivj^T對(duì)ωij進(jìn)行求解。

那么ωij組成的矩陣可以表示為:

那么,如何求解vi和vj呢?主要采用了公式:

具體過程如下:

上面的式子中有同學(xué)曾經(jīng)問我第一步是怎么推導(dǎo)的,其實(shí)也不難,看下面的手寫過程(大伙可不要嫌棄字丑喲)

經(jīng)過這樣的分解之后,我們就可以通過隨機(jī)梯度下降SGD進(jìn)行求解:

5、tensorflow代碼詳解

代碼參考地址:https://github.com/babakx/fm_tensorflow/blob/master/fm_tensorflow.ipynb上面的代碼使用的是python2編碼,在python3下運(yùn)行會(huì)出錯(cuò),所以如果大家使用的是python3的話,可以參考我寫的,其實(shí)就是修復(fù)了幾個(gè)bug啦,哈哈。我的github地址:https://github.com/princewen/tensorflow_practice/tree/master/recommendation-FM-demo。

本文使用的數(shù)據(jù)是MovieLens100k Datase,數(shù)據(jù)包括四列,分別是用戶ID,電影ID,打分,時(shí)間。

輸入變換

要使用FM模型,我們首先要將數(shù)據(jù)處理成一個(gè)矩陣,矩陣的大小是用戶數(shù) * 電影數(shù)。如何根據(jù)現(xiàn)有的數(shù)據(jù)進(jìn)行處理呢?使用的是scipy.sparse中的csr.csr_matrix,理解這個(gè)函數(shù)真的費(fèi)了不少功夫呢,不過還是在下面博客(https://blog.csdn.net/u012871493/article/details/51593451)的幫助下理解了函數(shù)的原理。盜用博客中的一張圖來幫助大家理解這個(gè)函數(shù)的輸入:

函數(shù)形式如下:

csr_matrix((data, indices, indptr)

可以看到,函數(shù)接收三個(gè)參數(shù),第一個(gè)參數(shù)是數(shù)值,第二個(gè)參數(shù)是每個(gè)數(shù)對(duì)應(yīng)的列號(hào),第三個(gè)參數(shù)是每行的起始的偏移量,舉上圖的例子來說,第0行的起始偏移是0,第0行有2個(gè)非0值,因此第一行的起始偏移是2,第1行有兩個(gè)非0值,因此第二行的起始偏移是4,依次類推。

下面的代碼是如何將原始的文件輸入轉(zhuǎn)換成我們的矩陣:

def vectorize_dic(dic,ix=None,p=None,n=0,g=0): """ dic -- dictionary of feature lists. Keys are the name of features ix -- index generator (default None) p -- dimension of featrure space (number of columns in the sparse matrix) (default None) """ if ix==None: ix = dict() nz = n * g col_ix = np.empty(nz,dtype = int) i = 0 for k,lis in dic.items(): for t in range(len(lis)): ix[str(lis[t]) + str(k)] = ix.get(str(lis[t]) + str(k),0) + 1 col_ix[i+t*g] = ix[str(lis[t]) + str(k)] i += 1 row_ix = np.repeat(np.arange(0,n),g) data = np.ones(nz) if p == None: p = len(ix) ixx = np.where(col_ix < p) ? ?return csr.csr_matrix((data[ixx],(row_ix[ixx],col_ix[ixx])),shape=(n,p)),ixcols = ['user','item','rating','timestamp']train = pd.read_csv('data/ua.base',delimiter=' ',names = cols)test = pd.read_csv('data/ua.test',delimiter=' ',names = cols)x_train,ix = vectorize_dic({'users':train['user'].values, ? ? ? ? ? ? ? ? ? ? ? ? ? ?'items':train['item'].values},n=len(train.index),g=2)x_test,ix = vectorize_dic({'users':test['user'].values, ? ? ? ? ? ? ? ? ? ? ? ? ? 'items':test['item'].values},ix,x_train.shape[1],n=len(test.index),g=2)y_train = train['rating'].valuesy_test = test['rating'].valuesx_train = x_train.todense()x_test = x_test.todense()

如果不做處理,函數(shù)返回的矩陣是按如下的格式保存的:

使用todense變換后,變成如下樣式:

估計(jì)值計(jì)算

得到我們的輸入之后,我們使用tensorflow來設(shè)計(jì)我們的模型,其實(shí)很簡(jiǎn)單啦,我們模型的估計(jì)值由兩部分構(gòu)成,原始的可以理解為線性回歸的部分,以及交叉特征的部分,交叉特征直接使用我們最后推導(dǎo)的形式即可,再回顧一遍:

因此,我們需要定義三個(gè)placeholder,分別是輸入的x,輸入的y,以及我們的 用戶數(shù)*電影數(shù)大小的待學(xué)習(xí)的fm矩陣:

n,p = x_train.shapek = 10x = tf.placeholder('float',[None,p])y = tf.placeholder('float',[None,1])w0 = tf.Variable(tf.zeros([1]))w = tf.Variable(tf.zeros([p]))v = tf.Variable(tf.random_normal([k,p],mean=0,stddev=0.01))#y_hat = tf.Variable(tf.zeros([n,1]))linear_terms = tf.add(w0,tf.reduce_sum(tf.multiply(w,x),1,keep_dims=True)) # n * 1pair_interactions = 0.5 * tf.reduce_sum( tf.subtract( tf.pow( tf.matmul(x,tf.transpose(v)),2), tf.matmul(tf.pow(x,2),tf.transpose(tf.pow(v,2))) ),axis = 1 , keep_dims=True)y_hat = tf.add(linear_terms,pair_interactions)

定義損失函數(shù)

這里我們定義的損失函數(shù)除了平方損失外,還加了l2正則項(xiàng),并使用梯度下降法進(jìn)行參數(shù)的更新:

lambda_w = tf.constant(0.001,name='lambda_w')lambda_v = tf.constant(0.001,name='lambda_v')l2_norm = tf.reduce_sum( tf.add( tf.multiply(lambda_w,tf.pow(w,2)), tf.multiply(lambda_v,tf.pow(v,2)) ))error = tf.reduce_mean(tf.square(y-y_hat))loss = tf.add(error,l2_norm)train_op = tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(loss)

模型訓(xùn)練接下來就是訓(xùn)練啦,這段代碼比較好理解:

epochs = 10batch_size = 1000# Launch the graphinit = tf.global_variables_initializer()with tf.Session() as sess: sess.run(init) for epoch in tqdm(range(epochs), unit='epoch'): perm = np.random.permutation(x_train.shape[0]) # iterate over batches for bX, bY in batcher(x_train[perm], y_train[perm], batch_size): _,t = sess.run([train_op,loss], feed_dict={x: bX.reshape(-1, p), y: bY.reshape(-1, 1)}) print(t) errors = [] for bX, bY in batcher(x_test, y_test): errors.append(sess.run(error, feed_dict={x: bX.reshape(-1, p), y: bY.reshape(-1, 1)})) print(errors) RMSE = np.sqrt(np.array(errors).mean()) print (RMSE)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • WINDOWS
    +關(guān)注

    關(guān)注

    3

    文章

    3526

    瀏覽量

    88448
  • 編碼
    +關(guān)注

    關(guān)注

    6

    文章

    935

    瀏覽量

    54771
  • 數(shù)據(jù)處理
    +關(guān)注

    關(guān)注

    0

    文章

    583

    瀏覽量

    28531

原文標(biāo)題:推薦系統(tǒng)遇上深度學(xué)習(xí)(一)--FM模型理論和實(shí)踐

文章出處:【微信號(hào):AI_shequ,微信公眾號(hào):人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    深度學(xué)習(xí)框架TensorFlow&TensorFlow-GPU詳解

    TensorFlow&TensorFlow-GPU:深度學(xué)習(xí)框架TensorFlow&TensorFlow-GPU的簡(jiǎn)介、安裝、使用方法詳細(xì)
    發(fā)表于 12-25 17:21

    tensorflow-gpu安裝報(bào)錯(cuò)的修改

    tensorflow-gpu安裝遇到的一些問題解決
    發(fā)表于 05-20 10:25

    UG5.0安裝視頻教程(手把手教你如何安裝)

    UG5.0安裝視頻教程,手把手教你如何安裝,怎么樣解決安裝中遇到的問題。
    發(fā)表于 02-06 11:34 ?86次下載
    UG5.0<b class='flag-5'>安裝</b>視頻教程(<b class='flag-5'>手把手</b><b class='flag-5'>教你</b>如何<b class='flag-5'>安裝</b>)

    手把手教你寫批處理-批處理的介紹

    手把手教你寫批處理-批處理的介紹
    發(fā)表于 10-25 15:02 ?69次下載

    美女手把手教你如何裝機(jī)()

    美女手把手教你如何裝機(jī)() 提到AMD,想必大家都想到C/P值超高、死忠粉絲超多的平臺(tái)吧!最近一年來,玩家的
    發(fā)表于 01-27 11:11 ?1597次閱讀

    美女手把手教你如何裝機(jī)(中)

    美女手把手教你如何裝機(jī)(中) 再來是硬碟的部份,這款機(jī)殼還不錯(cuò),可以旋轉(zhuǎn)支架~
    發(fā)表于 01-27 11:14 ?1458次閱讀

    美女手把手教你如何裝機(jī)(下)

    美女手把手教你如何裝機(jī)(下) 接著下來就是今天的重頭戲,開核蘿!~
    發(fā)表于 01-27 11:16 ?2917次閱讀

    手把手教你安裝Quartus II

    本章手把手把教你如何安裝 Quartus II 軟件 ,并將它激活 。此外 還有USB -Blaster下載器的驅(qū)動(dòng)安裝步驟 。
    發(fā)表于 09-18 14:55 ?9次下載

    手把手教你如何開始DSP編程

    手把手教你如何開始DSP編程。
    發(fā)表于 04-09 11:54 ?12次下載
    <b class='flag-5'>手把手</b><b class='flag-5'>教你</b>如何開始DSP編程

    手把手教你如何安裝機(jī)械硬盤和分區(qū)

    手把手教你如何安裝機(jī)械硬盤與分區(qū),看了你就知道這是多么簡(jiǎn)單!一起來試試看吧~
    的頭像 發(fā)表于 03-05 17:19 ?14.4w次閱讀

    手把手教你學(xué)LabVIEW視覺設(shè)計(jì)

    手把手教你學(xué)LabVIEW視覺設(shè)計(jì)手把手教你學(xué)LabVIEW視覺設(shè)計(jì)手把手教你學(xué)LabVIEW視
    發(fā)表于 03-06 01:41 ?3117次閱讀

    手把手教你玩USB開發(fā)資料匯總第二部分

    手把手教你開發(fā)—USB開發(fā)板資料,B站有視頻教程
    發(fā)表于 09-09 15:50 ?22次下載

    《嵌入式 - STM32開發(fā)指南》手把手教你搭建STM32開發(fā)環(huán)境 [Windows版 - 3]

    《嵌入式 - STM32開發(fā)指南》手把手教你搭建STM32開發(fā)環(huán)境 [Windows版 - 1]
    發(fā)表于 12-06 09:36 ?0次下載
    《嵌入式 - STM32<b class='flag-5'>開發(fā)</b>指南》<b class='flag-5'>手把手</b><b class='flag-5'>教你</b>搭建STM32<b class='flag-5'>開發(fā)</b><b class='flag-5'>環(huán)境</b> [<b class='flag-5'>Windows</b>版 - 3]

    《嵌入式 - STM32開發(fā)指南》手把手教你搭建STM32開發(fā)環(huán)境 [Linux版 - 3]

    《嵌入式 - STM32開發(fā)指南》手把手教你搭建STM32開發(fā)環(huán)境 [Linux版 - 1]《嵌入式 - STM32
    發(fā)表于 12-06 09:36 ?0次下載
    《嵌入式 - STM32<b class='flag-5'>開發(fā)</b>指南》<b class='flag-5'>手把手</b><b class='flag-5'>教你</b>搭建STM32<b class='flag-5'>開發(fā)</b><b class='flag-5'>環(huán)境</b> [Linux版 - 3]

    手把手教你學(xué)FPGA仿真

    電子發(fā)燒友網(wǎng)站提供《手把手教你學(xué)FPGA仿真.pdf》資料免費(fèi)下載
    發(fā)表于 10-19 09:17 ?2次下載
    <b class='flag-5'>手把手</b><b class='flag-5'>教你</b>學(xué)FPGA仿真