「LLM:Large Language Model(大規模言語モデル)」の版間の差分
提供:作業療法大百科事典OtWiki
20行目: | 20行目: | ||
===ローカルLLM=== | ===ローカルLLM=== | ||
[https://togetter.com/li/2355369 僅か2.3GBで日本語可能な超高性能ローカルLLMのPhi-3 MINIをllama.cppとCPUで動かしてみた。スマホでも可。従来のコンパクトLLMと比較して超越した性能で未来を感じさせるMicroSoft寄付ありがとう - Togetter] | |||
[https://zenn.dev/saldra/articles/201dd9e7d8c743 【令和最新版】何もわからない人向けのローカル LLM 入門] | [https://zenn.dev/saldra/articles/201dd9e7d8c743 【令和最新版】何もわからない人向けのローカル LLM 入門] |
2024年4月26日 (金) 11:54時点における版
たくさんの言葉を学習したAI。見た目、人間ほど賢い。
概要
大規模言語モデル(LLM:Large Language Models)とは、大量のテキストデータを使ってトレーニングされた自然言語処理のモデルのことである。[1]
実用化
大体のAIサービスはLLMを用いたものになっている。
OpenChat 大規模言語モデル(LLM)の利用を簡素化するオープンソースのチャットbotコンソール
OpenCopilot 企業がSaaSやWebアプリケーションなどの製品で、ユーザーを支援するカスタムAI(人工知能)コパイロットを提供するためのOSS(オープンソースソフトウェア)[2]
日本語大規模モデル
日本語大規模言語モデル「Japanese Stable LM 3B-4E1T」「Japanese Stable LM Gamma 7B」を公開しました — Stability AI Japan
ローカルLLM
LLMプロダクト開発とはどういうものなのか?|erukiti