於2020年9月11日由Alice Chan發佈
BERT用作Google增強搜索引擎的工具。
Bidirectional Encoder Representations from Transformers (BERT)是Google創建的自然語言處理(NLP)技術,有助其搜索引擎更理解網頁內容。與單向語言模型相比,這種開源語言模型經過雙向訓練,對語言的上文下理和流暢度有更透徹的瞭解。BERT對不同的單語工作顯示更出色的表現,例如問答系統和語言推理。
BERT不適用於翻譯本身,但適用於預先培訓。
南韓互聯網公司NAVER在2019年9月撰寫的論文中總結,BERT編碼的訊息雖然有用,但本身不足以應付翻譯工作。然而,論文指出,如果BERT可為一種源文語言進行訓練,並進一步在數個配對翻譯中重用,則「BERT預先訓練可為NMT模型提供更佳的初始化點」。1
多種技術有助提高NMT的表現。
譯谷涵蓋特定的金融領域,採用多種技術執行神經機器翻譯(NMT)。根據從股票市場所得的大量資料,譯谷的人工智慧系統運用金融世界的專業術語建構句子。透過應用名稱和實體識別,譯谷甚至可在上市公司的財務報告中列出具體的董事和附屬公司名單。譯谷團隊不僅能為您構建翻譯記憶,並可為您的翻譯記憶提供量身定製的訓練,務求切合您的需要。