芝加哥大學東方學院和計算機科學系的研究人員合作設計了一種AI,該AI可以幫助解碼來自古代文明的平板電腦。根據Phys.org的說法,該AI被稱為DeepScribe,并且接受了從Persepolis Fortification存檔中提取的6,000多張帶注釋的圖像的訓練,當AI模型完成后,它將能夠解釋未經分析的圖形輸入板,從而使研究古代文獻變得更加容易。
計算機視覺算法和深度學習體系結構為該領域帶來了新的可能性。OI計算機科學系的Sanjay Krishnan與Assyriology的副教授Susanne Paulus合作啟動了DeepScribe程序。研究人員監(jiān)督了一個名為OCHRE的數據庫管理平臺,該平臺整理了考古發(fā)掘的數據。目標是創(chuàng)建一個既廣泛又靈活的AI工具,能夠解釋來自不同地理區(qū)域和時間段的腳本。
正如Phys.org報道的那樣,克里希南(Krishnan)解釋說,考古研究人員面臨的識別腳本的挑戰(zhàn)與計算機視覺研究人員面臨的挑戰(zhàn)基本相同:
“從計算機視覺的角度來看,這確實很有趣,因為這些是我們面臨的相同挑戰(zhàn)。在過去的五年中,計算機視覺有了顯著改善;十年前,這本來應該是波浪形的,我們走得太遠了。這是一個很好的機器學習問題,因為這里的準確性是客觀的,我們有一個標簽化的訓練集,而且我們對腳本的理解非常好,對我們有幫助。這不是一個完全未知的問題。”
所涉及的培訓是從OI和U Chicago進行的大約80年的考古研究中獲取平板電腦和翻譯的結果,并從中獲得高分辨率的帶注釋的圖像。當前,訓練數據的大小約為60 TB。研究人員能夠使用數據集,并創(chuàng)建一個字典,其中包含超過100,000個可以從模型中學習的獨立識別標志。當訓練的模型在看不見的圖像集上進行測試時,該模型達到了約80%的準確性。
當研究人員團隊嘗試提高模型的準確性時,即使80%的準確性也可以協助轉錄過程。Paulus認為,該模型可用于識別或翻譯文檔中高度重復的部分,從而使專家可以花時間來解釋文檔中較難處理的部分。即使模型無法確定說出一個符號所代表的含義,它也可以為研究人員提供概率,這已經使他們領先。
該團隊還致力于使DeepScribe成為其他考古學家可以在其項目中使用的工具。例如,可以在其他楔形文字上對該模型進行重新訓練,或者該模型可以對損壞或不完整的平板電腦上的文本進行明智的估計。一個足夠健壯的模型甚至可以估計片劑或其他人工制品的年齡和起源,這通常是通過化學測試完成的。
DeepScribe項目由高級計算開發(fā)中心(CDAC)資助。計算機視覺也已在CDAC資助的其他項目中使用,例如旨在識別藝術品風格的項目以及旨在量化海洋雙殼類生物多樣性的項目。研究人員團隊也希望他們的合作能夠導致芝加哥大學計算機科學系和OI之間的未來合作。