Transformerの原典である"Attention Is All You Need" の論文要約メモです。 はじめに Attention Is All You Need 概要 手法 モデルアーキテクチャ 学習方法 結果 翻訳タスク Transformerモデルバリエーション 英語構文解析 おわりに/所感 参考 はじめに かの有名なAttention Is All You Need、原典をちゃんと読んだことなかったので読みます。 arxiv.org 2017/06/12にv1公開 Google Brain / Google Research コード: t...| BioErrorLog Tech Blog
論文読みの手法を、Andrew Ngの講義動画から学びます。 はじめに Andrew Ngに学ぶ論文の読み方 論文を読む 理解を確かめる おわりに 参考 はじめに 最近AI関連を調べている中で、論文に目を通す機会も増えてきました。 そんな中、かのAndrew Ng先生がStanford CS230の講義のなかで論文の読み方について講義している動画を見つけました。 Stanford CS230: Deep Learning | Autumn 2018 | Lecture ...| BioErrorLog Tech Blog