エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【備忘録】PyTorchで黒橋研日本語BERT学習済みモデルを使ってみる - Seitaro Shinagawaの雑記帳
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【備忘録】PyTorchで黒橋研日本語BERT学習済みモデルを使ってみる - Seitaro Shinagawaの雑記帳
品川です。最近本格的にBERTを使い始めました。 京大黒橋研が公開している日本語学習済みBERTを試してみ... 品川です。最近本格的にBERTを使い始めました。 京大黒橋研が公開している日本語学習済みBERTを試してみようとしてたのですが、Hugging Faceが若干仕様を変更していて少しだけハマったので、使い方を備忘録としてメモしておきます。 準備 学習済みモデルのダウンロード Juman++のインストール pyknp、transformersのpipインストール ベースのコードを修正して動かしてみる おまけ get_sentence_embedding関数内の各変数の表示 BERT modelのforwardの引数と出力の関係 準備 学習済みモデルのダウンロード 下記の黒橋研のサイトから、学習済みモデル(.zip)をダウンロードして解凍します(この時ダウンロードするのはtransformers用のモデルです) BERT日本語Pretrainedモデル - KUROHASHI-CHU-MURAW