精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過利用機(jī)器學(xué)習(xí)模型破譯古籍

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Michelle Horton ? 2022-04-08 09:47 ? 次閱讀

為了揭示過去的秘密,世界各地的歷史學(xué)者花費畢生精力翻譯古代手稿。圣母大學(xué)的一個研究小組希望幫助這項任務(wù),用一種新開發(fā)的機(jī)器學(xué)習(xí)模型來翻譯和記錄幾百年前的手寫文檔。

利用圣加爾修道院圖書館的數(shù)字化手稿和一個考慮到人類感知的機(jī)器學(xué)習(xí)模型 study 在深度學(xué)習(xí)轉(zhuǎn)錄能力方面有顯著提高。

“我們正在處理歷史文件,這些文件的書寫風(fēng)格早已過時,可以追溯到幾個世紀(jì)以前,并且使用拉丁語等語言,而拉丁語已經(jīng)很少使用了。你可以得到這些材料的美麗照片,但我們已經(jīng)著手做的是以一種模仿專家讀者眼睛對頁面感知的方式自動轉(zhuǎn)錄,并提供快速、可搜索的文本閱讀,”圣母大學(xué)副教授、資深作者沃爾特·舍勒在新聞稿中說。

圣加爾修道院圖書館建于 719 年,是世界上最古老、最豐富的圖書館藏品之一。該圖書館藏有大約 160000 卷書和 2000 份手稿,可追溯到八世紀(jì)。在羊皮紙上用現(xiàn)在很少使用的語言手工書寫,這些材料中的許多尚未被閱讀——這是一筆潛在的歷史檔案財富,等待發(fā)掘。

機(jī)器學(xué)習(xí)方法能夠自動轉(zhuǎn)錄這些類型的歷史文件已經(jīng)在工作中,但挑戰(zhàn)仍然存在。

到目前為止,大型數(shù)據(jù)集對于提高這些語言模型的性能是必不可少的。由于可供查閱的書籍?dāng)?shù)量巨大,這項工作需要時間,并且需要相對較少的專家學(xué)者進(jìn)行注釋。缺少知識,如從未編纂過的中世紀(jì)拉丁語詞典,構(gòu)成了更大的障礙。

該團(tuán)隊將傳統(tǒng)的機(jī)器學(xué)習(xí)方法與研究物理世界和人類行為之間關(guān)系的視覺心理物理學(xué)相結(jié)合,以創(chuàng)建更多信息豐富的注釋。在這種情況下,他們在處理古代文本時將人類視覺測量納入神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程。

“這是機(jī)器學(xué)習(xí)中通常不使用的策略。我們通過這些心理物理測量來標(biāo)記數(shù)據(jù),這些測量直接來自于通過行為測量對感知進(jìn)行的心理學(xué)研究。然后,我們通知網(wǎng)絡(luò)在感知這些角色方面的常見困難,并可以根據(jù)這些測量結(jié)果進(jìn)行糾正,” Scheirer 說。

為了訓(xùn)練、驗證和測試這些模型,研究人員使用了一套來自圣加爾的可追溯到九世紀(jì)的數(shù)字化手寫拉丁手稿。他們要求專家閱讀并將文本行中的手動抄本輸入定制的軟件中。測量每次抄寫的時間,可以洞察單詞、字符或段落的難度。根據(jù)作者的說法,這些數(shù)據(jù)有助于減少算法中的錯誤,并提供更真實的讀數(shù)。

所有的實驗都是使用 cuDNN-accelerated PyTorch 深度學(xué)習(xí)框架和 GPU 。“如果沒有 NVIDIA 硬件和軟件,我們肯定不可能完成我們所做的事情。

pYYBAGJPlEWAa7tcAAGssGNMcGs826.png

該研究引入了一種新的深度學(xué)習(xí)損失公式,該公式結(jié)合了人類視覺測量,可應(yīng)用于手寫文檔轉(zhuǎn)錄的不同處理管道。信貸: Scheirer 等人/ IEEE

團(tuán)隊仍在努力改進(jìn)某些方面。損壞和不完整的文檔以及插圖和縮寫對模型提出了特殊的挑戰(zhàn)。

“由于互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù)和 GPU 硬件,人工智能達(dá)到了拐點,這將使文化遺產(chǎn)和人文學(xué)科與其他領(lǐng)域一樣受益。我們只是初步了解我們可以對這個項目做些什么。

關(guān)于作者

Michelle Horton 是 NVIDIA 的高級開發(fā)人員通信經(jīng)理,擁有通信經(jīng)理和科學(xué)作家的背景。她在 NVIDIA 為開發(fā)者博客撰文,重點介紹了開發(fā)者使用 NVIDIA 技術(shù)的多種方式。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4703

    瀏覽量

    128712
  • 互聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    54

    文章

    11113

    瀏覽量

    103022
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8381

    瀏覽量

    132428
收藏 人收藏

    評論

    相關(guān)推薦

    什么是機(jī)器學(xué)習(xí)通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機(jī)器學(xué)習(xí)”最初的研究動機(jī)是讓計算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實現(xiàn)人工智能。因為沒有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?248次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?<b class='flag-5'>通過</b><b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?383次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個方面存在顯著的區(qū)別。以下是對這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬億的參
    的頭像 發(fā)表于 10-23 15:01 ?381次閱讀

    構(gòu)建語音控制機(jī)器人 - 線性模型機(jī)器學(xué)習(xí)

    輪子并識別音頻信號,但它仍然無法通過語音命令控制或按預(yù)定義路徑行駛。 線性控制模型 首先要解決的問題是實現(xiàn)直線驅(qū)動。為此,我們使用線性模型來控制提供給車輪的電壓。使用線性模型適合對汽車
    的頭像 發(fā)表于 10-02 16:31 ?175次閱讀
    構(gòu)建語音控制<b class='flag-5'>機(jī)器</b>人 - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>

    【《時間序列與機(jī)器學(xué)習(xí)》閱讀體驗】+ 時間序列的信息提取

    本人有些機(jī)器學(xué)習(xí)的基礎(chǔ),理解起來一點也不輕松,加油。 作者首先說明了時間序列的信息提取是時間序列分析的一個重要環(huán)節(jié),目標(biāo)是從給定的時間序列數(shù)據(jù)中提取出有用的信息和特征,以支持后續(xù)的分析和預(yù)測任務(wù),可以利用
    發(fā)表于 08-14 18:00

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    今天來學(xué)習(xí)大語言模型在自然語言理解方面的原理以及問答回復(fù)實現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語言處理技術(shù)。 大語言模型涉及以下幾個過程: 數(shù)據(jù)收集:大語言
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    這個程序不需要程序員編寫,而是由計算機(jī)自動生成。因此,人工編程方法依賴程序員思考的規(guī)則,而自動編程是計算機(jī)算法通過分析數(shù)據(jù)自行創(chuàng)建規(guī)則。 作者通過類比學(xué)生準(zhǔn)備高考的過程來說明機(jī)器學(xué)習(xí)
    發(fā)表于 07-25 14:33

    Al大模型機(jī)器

    豐富的知識儲備。它們可以涵蓋各種領(lǐng)域的知識,并能夠回答相關(guān)問題。靈活性與通用性: AI大模型機(jī)器人具有很強(qiáng)的靈活性和通用性,能夠處理各種類型的任務(wù)和問題。持續(xù)學(xué)習(xí)和改進(jìn): 這些模型可以
    發(fā)表于 07-05 08:52

    人工神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)模型的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)(ANN)與傳統(tǒng)機(jī)器學(xué)習(xí)模型之間的不同,包括其原理、數(shù)據(jù)處理能力、學(xué)習(xí)方法、適用場景及未來發(fā)展趨勢等方面,以期為讀者提供一個全面的視角。
    的頭像 發(fā)表于 07-04 14:08 ?1104次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練一個深度學(xué)習(xí)模型,本質(zhì)上是通過優(yōu)化算法調(diào)整
    的頭像 發(fā)表于 07-01 16:13 ?1105次閱讀

    大語言模型:原理與工程實踐+初識2

    前言 深度學(xué)習(xí)機(jī)器學(xué)習(xí)的分支,而大語言模型是深度學(xué)習(xí)的分支。機(jī)器
    發(fā)表于 05-13 00:09

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    大語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí)利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然語言文本。這些模型
    發(fā)表于 05-04 23:55

    深入探討機(jī)器學(xué)習(xí)的可視化技術(shù)

    機(jī)器學(xué)習(xí)可視化(簡稱ML可視化)一般是指通過圖形或交互方式表示機(jī)器學(xué)習(xí)模型、數(shù)據(jù)及其關(guān)系的過程。
    發(fā)表于 04-25 11:17 ?375次閱讀
    深入探討<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的可視化技術(shù)

    通過新的ONNX導(dǎo)出器簡化模型導(dǎo)出流程

    大家好。我叫Manav Dalal,今天我將講解如何通過新的ONNX導(dǎo)出器簡化模型導(dǎo)出流程。如果你還沒有聽說過ONNX,它是一種用于表示機(jī)器學(xué)習(xí)模型
    的頭像 發(fā)表于 01-10 09:45 ?874次閱讀
    <b class='flag-5'>通過</b>新的ONNX導(dǎo)出器簡化<b class='flag-5'>模型</b>導(dǎo)出流程

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個簡單的機(jī)器學(xué)習(xí)模型
    的頭像 發(fā)表于 01-08 09:25 ?919次閱讀
    如何使用TensorFlow構(gòu)建<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>