首页最新消息BERT简介

BERT简介

于2020年9月11日由Alice Chan发布

BERT用作Google增强搜索引擎的工具。

Bidirectional Encoder Representations from Transformers (BERT)是Google创建的自然语言处理(NLP)技术,有助其搜索引擎更理解网页内容。与单向语言模型相比,这种开源语言模型经过双向训练,对语言的上文下理和流畅度有更透彻的了解。BERT对不同的单语工作显示更出色的表现,例如问答系统和语言推理。

BERT不适用于翻译本身,但适用于预先培训。

南韩互联网公司NAVER在2019年9月撰写的论文中总结,BERT编码的讯息虽然有用,但本身不足以应付翻译工作。然而,论文指出,如果BERT可为一种源文语言进行训练,并进一步在数个配对翻译中重用,则”BERT预先训练可为NMT模型提供更佳的初始化点”。1

多种技术有助提高NMT的表现。

译谷涵盖特定的金融领域,采用多种技术执行神经机器翻译(NMT)。根据从股票市场所得的大量资料,译谷的人工智能系统运用金融世界的专业术语建构句子。透过应用名称和实体识别,译谷甚至可在上市公司的财务报告中列出具体的董事和附属公司名单。译谷团队不仅能为您构建翻译记忆,并可为您的翻译记忆提供量身定制的训练,务求切合您的需要。

Introduction to different computer-aided translation
  • 没有产品在购物车中。
Choose your category menu in Lorada Theme Options -> Header -> Menu -> Mobile Category Menu.