NVIDIA、大規模言語モデルの性能を最大4倍高速化する「TensorRT-LLM」をオープンソースでリリース。「Stable Diffusion」用Webアプリに使える拡張機能も併せて公開

NVIDIA、大規模言語モデルの性能を最大4倍高速化する「TensorRT-LLM」をオープンソースでリリース。「Stable Diffusion」用Webアプリに使える拡張機能も併せて公開

2023.10.30
ニュースAI
この記事をシェア!
Twitter Facebook LINE B!
Twitter Facebook LINE B!

この記事の3行まとめ

  • NVIDIA、「TensorRT-LLM」をリリース
  • NVIDIAのGPUを使用し、大規模言語モデルの推論を高速化
  • 「Stable Diffusion web UI」の生成速度を向上させる拡張機能も公開

NVIDIAは、大規模言語モデル(LLM)の推論を高速化するオープンソースライブラリ「TensorRT-LLM」をApache License 2.0でリリースしました。

(画像は公式ブログより引用)

TensorRT-LLMは、NVIDIAのGPUを使用して高速化を行います。同社は、LLMのパフォーマンスが最大で4倍高速化できたとしています。

また、パフォーマンス向上のほか、Retrieval-Augmented GenerationRAG)(※)などの手法をLLMに導入するのにも有用とのこと。
※ 学習データには含まれていない情報をプロンプトとして与えることで、より正確な回答を生成させる手法

NVIDIA公式ブログでは、Metaが開発するLLM「Llama2」と、TensorRT-LLMを利用しRAGを組み込んだLlama2の性能を比較。より正確かつ高速に回答を生成できたと報告しています。

「NVIDIA ACEはどのように感情的な反応を生み出すのか」という質問に対し、TensorRT-LLMを利用した場合(右)、利用しない場合(左)よりも正確な回答を出力している(画像は公式ブログより引用)

併せて、画像生成AI「Stable Diffusion」を使うWebアプリ「Stable Diffusion web UI」のパフォーマンスを、TensorRT-LLMで向上させる拡張機能「TensorRT Extension for Stable Diffusion Web UI」もMITライセンスでリリースされました。

PyTorchと比較して2倍のパフォーマンスを実現(画像はNVIDIA サポートページより引用)

TensorRT-LLMは、NVIDIA DeveloperGitHubからダウンロード可能です。

詳細はNVIDIA Developerおよび公式ブログをご確認ください。

「NVIDIA TensorRT」NVIDIA Developer『Striking Performance: Large Language Models up to 4x Faster on RTX With TensorRT-LLM for Windows』NVIDIA 公式ブログ

関連記事

企業でもAIやLLMを活用できる“仕組み”を作る。CygamesのAI導入手順と運用アーキテクチャ【CEDEC2025】
2025.08.08
『ストリートファイター6』“人間らしいAI”と“成長の楽しみ”が対人戦ハードルを下げる。「Vライバル」ができるまで【CEDEC2025】
2025.08.05
アンリアルエンジンの更新内容を自動でチェックしてAIが要約!おかず氏、「Unreal Engine Update Tracker」を公開
2025.07.23
エージェント型AI搭載のIDE「Kiro」プレビュー版がリリース。要件を補って仕様書を作り実装、リリースの定型作業も自動化
2025.07.17
Core Ultra 200Hシリーズ搭載のミニPC「GEEKOM IT15」、10万円台から販売中。AIアップスケーリング技術「Intel XeSS 2」に対応
2025.07.14 [PR]
ゲームAI活用の最新事例を総括。スクウェア・エニックスの三宅 陽一郎氏による講演をレポート【GFS2025】
2025.07.10

注目記事ランキング

2025.08.24 - 2025.08.31
VIEW MORE

連載・特集ピックアップ

イベントカレンダー

VIEW MORE

今日の用語

ロード(Load)
ロード
  1. コンピューターの補助記憶装置(HDDなど)に保存されたデータを読み込んで、主記憶装置(メインメモリ)上に展開すること。
  2. ゲームにおいて、セーブデータを読み込んで中断時の状況を再現すること。
VIEW MORE

Xで最新情報をチェック!