Contenido proporcionado por iwashi. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente iwashi o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
Player FM : aplicación de podcast
¡Desconecta con la aplicación Player FM !
¡Desconecta con la aplicación Player FM !
107. LLMをゼロから作るということ w/ Takahiro Omi
MP3•Episodio en casa
Manage episode 383875982 series 2451650
Contenido proporcionado por iwashi. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente iwashi o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
ストックマークの近江さんをゲストに、大規模言語モデルをゼロから作る方法、学習のデータセット、モデルアーキテクチャ、学習環境への取り組みなどについて語っていただきました。
話したネタ
- どのような大規模言語モデルと作ったのか?特徴は何か?
- データセットに何を使ったのか?
- 日本語と英語とのバランスは?
- 最終的なToken数は?
- 事前学習モデルを作りたいとして、何から考えるのか?
- ノイズのクリーニングと、その方法
- 今回活用したモデルアーキテクチャ(Llama)
- 前回のアーキテクチャは GPT-NeoX
- 今回の学習環境は?
- AWS Trainum 32コア x 16ノード
- 学習にかかった時間は?
- 学習時に大変だったこと・上手くいかなかったことは?
- 学習中のチェックポイントとは何か?
- なぜ、Token生成が速いのか?
- 手元でLLMを動かすときの一番のネックは?
- bit数を落とすFineTuning
- Tokenizerとは何か?
- 日本語の単語区切りはどのように考えるのか?
- 今回のLLM作成のTokenizerは何を使ったのか?
- ビジネスドメインでのLLM評価
- ストックマーク株式会社のRecruitページ
See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.
127 episodios
MP3•Episodio en casa
Manage episode 383875982 series 2451650
Contenido proporcionado por iwashi. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente iwashi o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
ストックマークの近江さんをゲストに、大規模言語モデルをゼロから作る方法、学習のデータセット、モデルアーキテクチャ、学習環境への取り組みなどについて語っていただきました。
話したネタ
- どのような大規模言語モデルと作ったのか?特徴は何か?
- データセットに何を使ったのか?
- 日本語と英語とのバランスは?
- 最終的なToken数は?
- 事前学習モデルを作りたいとして、何から考えるのか?
- ノイズのクリーニングと、その方法
- 今回活用したモデルアーキテクチャ(Llama)
- 前回のアーキテクチャは GPT-NeoX
- 今回の学習環境は?
- AWS Trainum 32コア x 16ノード
- 学習にかかった時間は?
- 学習時に大変だったこと・上手くいかなかったことは?
- 学習中のチェックポイントとは何か?
- なぜ、Token生成が速いのか?
- 手元でLLMを動かすときの一番のネックは?
- bit数を落とすFineTuning
- Tokenizerとは何か?
- 日本語の単語区切りはどのように考えるのか?
- 今回のLLM作成のTokenizerは何を使ったのか?
- ビジネスドメインでのLLM評価
- ストックマーク株式会社のRecruitページ
See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.
127 episodios
Wszystkie odcinki
×Bienvenido a Player FM!
Player FM está escaneando la web en busca de podcasts de alta calidad para que los disfrutes en este momento. Es la mejor aplicación de podcast y funciona en Android, iPhone y la web. Regístrate para sincronizar suscripciones a través de dispositivos.