(文章來源:比特網(wǎng))
去年美國馬薩諸塞州大學(xué)阿默斯特分校的研究人員曾表示,訓(xùn)練一臺(tái)大型AI機(jī)器產(chǎn)生的碳,平均是一個(gè)人終其一生駕駛汽車制造的排放量5倍。除此之外,還存在很多其他方面的能源消耗。因此AI未來如何實(shí)現(xiàn)可持續(xù)發(fā)展,仍是亟需解決的問題。
近期,在麻省理工一篇最新論文中顯示,其提出了一種比以前更環(huán)保的方式來訓(xùn)練和運(yùn)行AI模型的系統(tǒng)。論文中顯示,該方案被稱為是種“一勞永逸”的網(wǎng)絡(luò),它訓(xùn)練一個(gè)大型模型,該模型由許多不同大小的預(yù)訓(xùn)練子模型組成,這些子模型可以在不需要再訓(xùn)練的情況下針對(duì)一系列平臺(tái)進(jìn)行定制。每個(gè)子模型都可以在推理時(shí)獨(dú)立運(yùn)行而無需重新訓(xùn)練,系統(tǒng)根據(jù)與目標(biāo)硬件的功率和速度限制相關(guān)的精度和延遲權(quán)衡來確定最佳子模型。
“漸進(jìn)收縮”算法有效地訓(xùn)練大模型,同時(shí)支持所有子模型。先訓(xùn)練大模型,再利用大模型訓(xùn)練較小的子模型,使其同時(shí)學(xué)習(xí),最后所有子模型都得到了支持。
在實(shí)驗(yàn)中,研究人員發(fā)現(xiàn),用他們的方法訓(xùn)練一個(gè)包含超過10個(gè)五分之一建筑環(huán)境的計(jì)算機(jī)視覺模型,最終比花幾個(gè)小時(shí)訓(xùn)練每個(gè)子網(wǎng)絡(luò)要有效得多。此外,它并沒有影響模型的準(zhǔn)確性或效率——當(dāng)使用通用基準(zhǔn)(ImageNet)進(jìn)行測(cè)試時(shí),該模型在移動(dòng)設(shè)備上達(dá)到了理想準(zhǔn)確性,在推理方面比領(lǐng)先的分類系統(tǒng)快1.5到2.6倍。
也許更令人印象深刻的是,研究人員聲稱,與當(dāng)今流行的模型搜索技術(shù)相比,計(jì)算機(jī)視覺模型在訓(xùn)練時(shí)需要大約1/1300的碳排放量。IBM研究員、麻省理工學(xué)院沃森人工智能實(shí)驗(yàn)室成員談到這項(xiàng)研究時(shí)表示:“如果人工智能要繼續(xù)快速發(fā)展,我們就需要減少其對(duì)環(huán)境的影響。”
(責(zé)任編輯:fqj)
-
AI
+關(guān)注
關(guān)注
87文章
30146瀏覽量
268421 -
碳排放
+關(guān)注
關(guān)注
0文章
17瀏覽量
9637
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論