最新の日本語モデル「japanese-gpt-1b」を使ってみました!

 



japanese-gpt-1bとは


 AIキャラクター開発企業のrinnaから2022年1月26日、13億パラメーターを持つ日本語に特化したGPT(Generative Pre-trained Transformer)言語モデル「japanese-gpt-1b」が公開されました。MITライセンスで商用利用が可能で、公開先は自然言語処理モデルライブラリHugging Faceとなっています。

使い方

Hugging Faceのページにはサンプルコードが掲載されているので、こちらを参考にすればその性能を誰でも試すことができます。



Previous Post
No Comment
Add Comment
comment url