lib-artslib-arts

主要論文から把握する、 BERT研究トレンド

『BERT・XLNetに学ぶ、言語処理における事前学習』の第2版の作成にあたりベースの理解のしやすさを優先したため、ALBERTやT5などを執筆対象から外すということになりました。 https://booth.pm/ja/items/1834866 そこで、トレンドについては別途まとめ直せればということで、BERT関連論文の研究トレンドのまとめをこちらにまとめました。 トレンドまとめなので構成などはあまり気にせず、新しい論文などをどんどん取り入れて、内容を更新していければと思います(初版については一旦800円の設定としました)。

『BERT・XLNetに学ぶ、言語処理における事前学習』の第2版の作成にあたりベースの理解のしやすさを優先したため、ALBERTやT5などを執筆対象から外すということになりました。 https://booth.pm/ja/items/1834866 そこで、トレンドについては別途まとめ直せればということで、BERT関連論文の研究トレンドのまとめをこちらにまとめました。 トレンドまとめなので構成などはあまり気にせず、新しい論文などをどんどん取り入れて、内容を更新していければと思います(初版については一旦800円の設定としました)。