精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

討論8種在Python環(huán)境下進行簡單線性回歸計算的算法

馬哥Linux運維 ? 來源:cc ? 2019-02-13 10:23 ? 次閱讀

對于大多數(shù)數(shù)據(jù)科學(xué)家而言,線性回歸方法是他們進行統(tǒng)計學(xué)建模和預(yù)測分析任務(wù)的起點。但我們不可夸大線性模型(快速且準確地)擬合大型數(shù)據(jù)集的重要性。如本文所示,在線性回歸模型中,「線性」一詞指的是回歸系數(shù),而不是特征的 degree。

特征(或稱獨立變量)可以是任何的 degree,甚至是超越函數(shù)(transcendental function),比如指數(shù)函數(shù)、對數(shù)函數(shù)、正弦函數(shù)。因此,很多自然現(xiàn)象可以通過這些變換和線性模型來近似模擬,即使當(dāng)輸出與特征的函數(shù)關(guān)系是高度非線性的也沒問題。

另一方面,由于 Python 正在快速發(fā)展為數(shù)據(jù)科學(xué)家的首選編程語言,所以能夠意識到存在很多方法用線性模型擬合大型數(shù)據(jù)集,就顯得尤為重要。同樣重要的一點是,數(shù)據(jù)科學(xué)家需要從模型得到的結(jié)果中來評估與每個特征相關(guān)的重要性。

然而,在 Python 中是否只有一種方法來執(zhí)行線性回歸分析呢?如果有多種方法,那我們應(yīng)該如何選擇最有效的那個呢?

由于在機器學(xué)習(xí)中,Scikit-learn 是一個十分流行的 Python 庫,因此,人們經(jīng)常會從這個庫調(diào)用線性模型來擬合數(shù)據(jù)。除此之外,我們還可以使用該庫的 pipeline 與 FeatureUnion 功能(如:數(shù)據(jù)歸一化、模型回歸系數(shù)正則化、將線性模型傳遞給下游模型),但是一般來看,如果一個數(shù)據(jù)分析師僅需要一個又快又簡單的方法來確定回歸系數(shù)(或是一些相關(guān)的統(tǒng)計學(xué)基本結(jié)果),那么這并不是最快或最簡潔的方法。

雖然還存在其他更快更簡潔的方法,但是它們都不能提供同樣的信息量與模型靈活性。

請繼續(xù)閱讀。

有關(guān)各種線性回歸方法的代碼可以參閱筆者的 GitHub。其中大部分都基于 SciPy 包

SciPy 基于 Numpy 建立,集合了數(shù)學(xué)算法與方便易用的函數(shù)。通過為用戶提供高級命令,以及用于操作和可視化數(shù)據(jù)的類,SciPy 顯著增強了 Python 的交互式會話。

以下對各種方法進行簡要討論。

方法 1:Scipy.polyfit( ) 或 numpy.polyfit( )

這是一個非常一般的最小二乘多項式擬合函數(shù),它適用于任何 degree 的數(shù)據(jù)集與多項式函數(shù)(具體由用戶來指定),其返回值是一個(最小化方差)回歸系數(shù)的數(shù)組。

對于簡單的線性回歸而言,你可以把 degree 設(shè)為 1。如果你想擬合一個 degree 更高的模型,你也可以通過從線性特征數(shù)據(jù)中建立多項式特征來完成。

詳細描述參考:https://docs.scipy.org/doc/numpy-1.13.0/reference/generated/numpy.polyfit.html。

方法 2:stats.linregress( )

這是 Scipy 中的統(tǒng)計模塊中的一個高度專門化的線性回歸函數(shù)。其靈活性相當(dāng)受限,因為它只對計算兩組測量值的最小二乘回歸進行優(yōu)化。因此,你不能用它擬合一般的線性模型,或者是用它來進行多變量回歸分析。但是,由于該函數(shù)的目的是為了執(zhí)行專門的任務(wù),所以當(dāng)我們遇到簡單的線性回歸分析時,這是最快速的方法之一。除了已擬合的系數(shù)和截距項(intercept term)外,它還會返回基本的統(tǒng)計學(xué)值如 R2 系數(shù)與標準差。

詳細描述參考:http://blog.minitab.com/blog/adventures-in-statistics-2/regression-analysis-how-do-i-interpret-r-squared-and-assess-the-goodness-of-fit

方法 3:optimize.curve_fit( )

這個方法與 Polyfit 方法類似,但是從根本來講更為普遍。通過進行最小二乘極小化,這個來自 scipy.optimize 模塊的強大函數(shù)可以通過最小二乘方法將用戶定義的任何函數(shù)擬合到數(shù)據(jù)集上。

對于簡單的線性回歸任務(wù),我們可以寫一個線性函數(shù):mx+c,我們將它稱為估計器。它也適用于多變量回歸。它會返回一個由函數(shù)參數(shù)組成的數(shù)列,這些參數(shù)是使最小二乘值最小化的參數(shù),以及相關(guān)協(xié)方差矩陣的參數(shù)。

詳細描述參考:https://docs.scipy.org/doc/scipy/reference/generated/scipy.optimize.curve_fit.html

方法 4:numpy.linalg.lstsq

這是用矩陣因式分解來計算線性方程組的最小二乘解的根本方法。它來自 numpy 包中的線性代數(shù)模塊。通過求解一個 x 向量(它將|| b—a x ||2的歐幾里得 2-范數(shù)最小化),它可以解方程 ax=b。

該方程可能會欠定、確定或超定(即,a 中線性獨立的行少于、等于或大于其線性獨立的列數(shù))。如果 a 是既是一個方陣也是一個滿秩矩陣,那么向量 x(如果沒有舍入誤差)正是方程的解。

借助這個方法,你既可以進行簡單變量回歸又可以進行多變量回歸。你可以返回計算的系數(shù)與殘差。一個小竅門是,在調(diào)用這個函數(shù)之前,你必須要在 x 數(shù)據(jù)上附加一列 1,才能計算截距項。結(jié)果顯示,這是處理線性回歸問題最快速的方法之一。

詳細描述參考:https://docs.scipy.org/doc/numpy-1.13.0/reference/generated/numpy.linalg.lstsq.html#numpy.linalg.lstsq

方法 5: Statsmodels.OLS ( )

statsmodel 是一個很不錯的 Python 包,它為人們提供了各種類與函數(shù),用于進行很多不同統(tǒng)計模型的估計、統(tǒng)計試驗,以及統(tǒng)計數(shù)據(jù)研究。每個估計器會有一個收集了大量統(tǒng)計數(shù)據(jù)結(jié)果的列表。其中會對結(jié)果用已有的統(tǒng)計包進行對比試驗,以保證準確性。

對于線性回歸,人們可以從這個包調(diào)用 OLS 或者是 Ordinary least squares 函數(shù)來得出估計過程的最終統(tǒng)計數(shù)據(jù)。

需要記住的一個小竅門是,你必須要手動為數(shù)據(jù) x 添加一個常數(shù),以用于計算截距。否則,只會默認輸出回歸系數(shù)。下方表格匯總了 OLS 模型全部的結(jié)果。它和任何函數(shù)統(tǒng)計語言(如 R 和 Julia)一樣豐富。

詳細描述參考:http://www.statsmodels.org/dev/index.html

方法 6、7:使用矩陣求逆方法的解析解

對于一個良態(tài)(well-conditioned)線性回歸問題(至少是對于數(shù)據(jù)點、特征),回歸系數(shù)的計算存在一個封閉型的矩陣解(它保證了最小二乘的最小化)。它由下面方程給出:

在這里,我們有兩個選擇:

方法 6:使用簡單矩陣求逆乘法。

方法 7:首先計算數(shù)據(jù) x 的廣義 Moore-Penrose 偽逆矩陣,然后將結(jié)果與 y 進行點積。由于這里第二個步驟涉及到奇異值分解(SVD),所以它在處理非良態(tài)數(shù)據(jù)集的時候雖然速度慢,但是結(jié)果不錯。(參考:開發(fā)者必讀:計算機科學(xué)中的線性代數(shù))

詳細描述參考:https://en.wikipedia.org/wiki/Linear_least_squares_%28mathematics%29

方法 8: sklearn.linear_model.LinearRegression( )

這個方法經(jīng)常被大部分機器學(xué)習(xí)工程師與數(shù)據(jù)科學(xué)家使用。然而,對于真實世界的問題,它的使用范圍可能沒那么廣,我們可以用交叉驗證與正則化算法比如 Lasso 回歸和 Ridge 回歸來代替它。但是要知道,那些高級函數(shù)的本質(zhì)核心還是從屬于這個模型。

詳細描述參考:http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html

以上方法的速度與時間復(fù)雜度測量

作為一個數(shù)據(jù)科學(xué)家,他的工作經(jīng)常要求他又快又精確地完成數(shù)據(jù)建模。如果使用的方法本來就很慢,那么在面對大型數(shù)據(jù)集的時候便會出現(xiàn)執(zhí)行的瓶頸問題。

一個判斷算法能力可擴展性的好辦法,是用不斷擴大的數(shù)據(jù)集來測試數(shù)據(jù),然后提取所有試驗的執(zhí)行時間,畫出趨勢圖。

可以在 GitHub 查看這個方法的代碼。下方給出了最終的結(jié)果。由于模型的簡單性,stats.linregress 和簡單矩陣求逆乘法的速度最快,甚至達到了 1 千萬個數(shù)據(jù)點。

總結(jié)

作為一個數(shù)據(jù)科學(xué)家,你必須要經(jīng)常進行研究,去發(fā)現(xiàn)多種處理相同的分析或建模任務(wù)的方法,然后針對不同問題對癥下藥。

在本文中,我們討論了 8 種進行簡單線性回歸的方法。其中大部分方法都可以延伸到更一般的多變量和多項式回歸問題上。我們沒有列出這些方法的 R2 系數(shù)擬合,因為它們都非常接近 1。

對于(有百萬人工生成的數(shù)據(jù)點的)單變量回歸,回歸系數(shù)的估計結(jié)果非常不錯。

這篇文章首要目標是討論上述 8 種方法相關(guān)的速度/計算復(fù)雜度。我們通過在一個合成的規(guī)模逐漸增大的數(shù)據(jù)集(最大到 1 千萬個樣本)上進行實驗,我們測出了每種方法的計算復(fù)雜度。令人驚訝的是,簡單矩陣求逆乘法的解析解竟然比常用的 scikit-learn 線性模型要快得多。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4782

    瀏覽量

    84453

原文標題:Python環(huán)境下的8種簡單線性回歸算法

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    分享一個自己寫的機器學(xué)習(xí)線性回歸梯度下降算法

    單變量線性回歸算法,利用Batch梯度梯度下降算法迭代計算得到誤差最小的代價函數(shù)theta0,theta1。調(diào)節(jié)學(xué)習(xí)率a可以觀察擬合得到的函
    發(fā)表于 10-02 21:48

    線性回歸的標準方程法使用

    線性回歸-標準方程法示例(python原生實現(xiàn))
    發(fā)表于 05-07 16:44

    干貨 | 這些機器學(xué)習(xí)算法,你了解幾個?

    。 優(yōu)點:分類音頻,文本和圖像數(shù)據(jù)時,深度學(xué)習(xí)表現(xiàn)地非常出色。 缺點:與回歸一樣,深度神經(jīng)網(wǎng)絡(luò)需要大量的數(shù)據(jù)進行訓(xùn)練,所以它不被視為通用算法。 實現(xiàn):
    發(fā)表于 09-22 08:30

    生產(chǎn)應(yīng)用中使用線性回歸進行實際操練

    線性回歸】生產(chǎn)應(yīng)用中使用線性回歸進行實際操練
    發(fā)表于 05-08 07:45

    簡單線性回歸代碼實現(xiàn)細節(jié)分析

    機器學(xué)習(xí)100天-簡單線性回歸 [代碼實現(xiàn)細節(jié)分析]
    發(fā)表于 05-22 10:16

    python數(shù)據(jù)分析基礎(chǔ)之使用statasmodels進行線性回歸

    python 數(shù)據(jù)分析基礎(chǔ) day16-使用statasmodels進行線性回歸
    發(fā)表于 06-19 11:22

    回歸算法有哪些,常用回歸算法(3)詳解

    損失函數(shù): 其中,需要對所有訓(xùn)練樣本的誤差求和。根據(jù)輸入變量 X 的數(shù)量和類型,可劃分出多種線性回歸類型:簡單線性回歸(一個輸入變量,一個輸出變量),多元
    發(fā)表于 07-28 14:36

    TensorFlow實現(xiàn)簡單線性回歸

    本小節(jié)直接從 TensorFlow contrib 數(shù)據(jù)集加載數(shù)據(jù)。使用隨機梯度下降優(yōu)化器優(yōu)化單個訓(xùn)練樣本的系數(shù)。實現(xiàn)簡單線性回歸的具體做法導(dǎo)入需要的所有軟件包: 神經(jīng)網(wǎng)絡(luò)中,所有的輸入都
    發(fā)表于 08-11 19:34

    TensorFlow實現(xiàn)多元線性回歸(超詳細)

    TensorFlow 實現(xiàn)簡單線性回歸的基礎(chǔ)上,可通過權(quán)重和占位符的聲明中稍作修改來對相同的數(shù)據(jù)進行多元
    發(fā)表于 08-11 19:35

    如何用C語言實現(xiàn)一個簡單的一元線性回歸算法

    今天我們用C語言實現(xiàn)一個簡單線性回歸算法;代碼前面我們回顧一
    發(fā)表于 07-20 06:34

    使用KNN進行分類和回歸

    一般情況k-Nearest Neighbor (KNN)都是用來解決分類的問題,其實KNN是一可以應(yīng)用于數(shù)據(jù)分類和預(yù)測的簡單算法,本文中我們將它與
    發(fā)表于 10-28 14:44

    8 進行簡單線性回歸的方法分析與討論

    本文中,作者討論8 Python 環(huán)境
    發(fā)表于 01-05 08:18 ?1w次閱讀
    <b class='flag-5'>8</b> <b class='flag-5'>種</b><b class='flag-5'>進行</b><b class='flag-5'>簡單線性</b><b class='flag-5'>回歸</b>的方法分析與<b class='flag-5'>討論</b>

    8Python實現(xiàn)線性回歸的方法對比分析_哪個方法更好?

    說到如何用Python執(zhí)行線性回歸,大部分人會立刻想到用sklearn的linear_model,但事實是,Python至少有8
    的頭像 發(fā)表于 06-28 09:53 ?4368次閱讀

    多元線性回歸的特點是什么

    何為多元線性回歸?對比于前一天學(xué)習(xí)的線性回歸,多元線性回歸的特點是什么? 多元
    的頭像 發(fā)表于 10-31 10:34 ?1381次閱讀
    多元<b class='flag-5'>線性</b><b class='flag-5'>回歸</b>的特點是什么

    Go單線計算性能上的優(yōu)勢

    一文中,我們討論了Go單線計算性能上的優(yōu)勢。 現(xiàn)在,考慮這樣的一場景: 我們需要從某些網(wǎng)址中同步數(shù)據(jù)并
    的頭像 發(fā)表于 11-02 11:16 ?449次閱讀
    Go<b class='flag-5'>在</b><b class='flag-5'>單線</b>程<b class='flag-5'>計算</b>性能上的優(yōu)勢