近年来,深度学习在自然语言处理领域得到了广泛的应用。基于 Transformer 的模型,比如 BERT (Bidirectional Encoder Representations from Transformers),在问答系统、实体识别、意图识别、情感分析等方面展现了媲美人类的准确率,推动了自然语言处理领域的革命性发展。除此之外,Transformer 也在推荐系统,自动语音识别技术等领域得到了应用。
本次在线研讨会主要针对自然语言处理的初学者,主讲人会对于自然语言处理领域的深度学习模型进行初步的介绍。
# 详细介绍 Transformer 和 BERT
# 简要介绍 Transformer 在自然语言处理领域之外的应用
# 介绍 BERT 之后的一系列模型
张静蓉
NVIDIA GPU 计算专家
拥有多年 CUDA 开发经验,参与完成了利用 CUDA 加速自然语言处理领域的 XLNet 模型,推荐系统常用的 TOP-K 算法加速等工作。识别以下二维码注册本次在线研讨会

请读者朋友们点击以下订阅通知,以便及时接收会议提醒消息: