NVIDIA は、カスタム大規模言語モデル (LLM) とエンタープライズ データの統合を可能にすることで、エンタープライズ AI 環境の改善を約束する新しい生成 AI マイクロサービスである NVIDIA NeMo Retriever を発表し、AWS re:Invent で注目を集めました。 NeMo Retriever の目標は、企業内の AI アプリケーションに対して前例のない正確な応答を提供することです。
NVIDIA は、カスタム大規模言語モデル (LLM) とエンタープライズ データの統合を可能にすることで、エンタープライズ AI 環境の改善を約束する新しい生成 AI マイクロサービスである NVIDIA NeMo Retriever を発表し、AWS re:Invent で注目を集めました。 NeMo Retriever の目標は、企業内の AI アプリケーションに対して前例のない正確な応答を提供することです。
NVIDIA NeMo Retriever は、最先端の生成 AI モデルを構築、カスタマイズ、展開するために設計された高度なフレームワークとツールで知られる NeMo ファミリの最新製品です。このエンタープライズ グレードのセマンティック検索マイクロサービスは、堅牢な検索拡張生成 (RAG) 機能を備えた生成 AI アプリケーションを強化するように設計されています。
NeMo Retriever の特徴は、NVIDIA に最適化されたアルゴリズムを通じてより正確な応答を提供できることです。このマイクロサービスにより、開発者は、クラウド間やデータセンターなど、場所に関係なく、AI アプリケーションをさまざまなビジネス データにシームレスに接続できます。 NVIDIA AI Enterprise ソフトウェア プラットフォームの一部であり、AWS Marketplace から簡単に入手できます。
NVIDIA NeMo Retriever はすでに使用されています
このテクノロジーの影響は、Cadence、Dropbox、SAP、ServiceNow などの業界リーダーが NVIDIA と協力することですでに感じられています。彼らはこのテクノロジーをカスタムの生成 AI アプリケーションとサービスに統合し、ビジネス インテリジェンスで可能なことの限界を押し広げています。
「ジェネレーティブ AI は、設計プロセスの早い段階で潜在的な欠陥を発見するツールなど、顧客のニーズに対応する革新的なアプローチを導入します。」とケイデンスの社長兼 CEO、アニルード・デヴガンは述べています。
電子システム設計の世界的リーダーであるケイデンスは、NeMo Retriever を利用して産業用エレクトロニクス設計における AI アプリケーション向けの RAG 機能を開発しています。 Cadence の CEO、Anirudh Devgan は、設計上の欠陥を早期に発見し、高品質の製品開発を加速する生成 AI の可能性を強調しました。
オープンソースの RAG ツールキットとは異なり、NeMo Retriever は、商業的に実行可能なモデル、API の安定性、セキュリティ パッチ、およびエンタープライズ サポートを提供する、本番環境に対応した状態で市場に投入されます。その最適化された埋め込みモデルは大きな技術進歩であり、複雑な単語の関係を捕捉し、LLM の処理および分析能力を強化します。

NVIDIA GH200 スーパーチップ
NVIDIA NeMo Retriever が重要な理由
LLM を複数のデータ ソースやナレッジ ベースに接続する NeMo Retriever の機能は注目に値します。これにより、ユーザーは簡単な会話プロンプトを通じてデータを操作し、正確な最新の応答を得ることができます。この機能は、テキスト、PDF、画像、ビデオなどのさまざまなデータ モダリティに拡張され、包括的で安全な情報アクセスが保証されます。
最も興味深いのは、NVIDIA NeMo Retriever は、少ないトレーニングでより正確な結果を約束し、市場投入までの時間を短縮し、生成 AI アプリケーションの開発ワークフローにおけるエネルギー効率をサポートすることです。
ここがニモ・レトリバーの真価を発揮するところです。 RAG と LLM を統合することにより、NeMo Retriever は従来のモデルの制限を克服します。 RAG は、特にオープンドメインの質問応答アプリケーション向けに、情報検索の力を LLM と組み合わせ、更新可能な膨大なナレッジ ベースへの LLM のアクセスを大幅に強化します。
RAG パイプラインの概要
NeMo Retriever は、オフライン段階でナレッジ ベースをエンコードすることから始めて、RAG プロセスを最適化します。このフェーズでは、さまざまな形式のドキュメントがチャンク化され、深層学習モデルを使用して埋め込まれ、高密度のベクトル表現が生成されます。これらはベクトル データベースに保存され、後の意味検索に重要になります。埋め込みプロセスは単語間の関係を捕捉し、LLM がテキスト データをより正確に処理および分析できるようにするため、重要です。
NeMo Retriever の機能が真に発揮されるのは、ボンネットの下、本番環境、そして質問に答えることです。これには、ベクトル データベースからの取得と応答の生成という 2 つの重要なフェーズが含まれます。ユーザーがクエリを入力すると、NeMo Retriever はまずこのクエリを高密度ベクトルとして埋め込み、それを使用してベクトル データベースを検索します。次に、このデータベースは、クエリに関連する最も関連性の高いドキュメント チャンクを取得します。最終フェーズでは、これらのチャンクが結合されてコンテキストが形成され、ユーザーのクエリとともに LLM に入力されます。このプロセスにより、生成された応答が正確で、ユーザーのクエリとの関連性が高いことが保証されます。
NVIDIA NeMo で企業の課題を克服
エンタープライズ アプリケーション用の RAG パイプラインを構築することは、大きな課題です。現実世界のクエリの複雑さから複数回にわたる会話の要求に至るまで、企業は技術的に高度で、準拠しており、商業的に実行可能なソリューションを必要としています。 NeMo Retriever は、低レイテンシーと高スループット向けに最適化された実稼働対応コンポーネントを提供することでこのタスクを達成することを目指しており、企業がこれらの機能を AI アプリケーションに導入できることを約束します。
NVIDIA のこのテクノロジーへの取り組みは、NVIDIA Q&A 検索埋め込みモデルと同様に、モデルとサービスの継続的な改善にまで及びます。 NVIDIA は、トランスフォーマー エンコーダーとして、プライベート データセットとパブリック データセットの両方を活用して、テキストベースの質問応答に最も正確な埋め込みを提供するように微調整されていると述べています。
最先端の AI で企業を強化
NeMo Retriever の実際の用途は広大かつ多様です。 IT および HR のヘルプ アシスタントから R&D の研究アシスタントに至るまで、LLM を複数のデータ ソースおよびナレッジ ベースに接続する NeMo Retriever の機能により、企業はより会話的で直感的な方法でデータを操作できるようになります。 NeMo Retriever は、ユーザー エクスペリエンスを向上させ、企業全体のさまざまなビジネス機能の効率と生産性を向上させる準備ができています。
この革新的なテクノロジーを活用したい開発者は、NVIDIA NeMo Retriever への早期アクセスにサインアップできます。
このリリースは現在の AI 機能を強化し、エンタープライズ分野での LLM 導入の可能性を数多く開くものであるため、その興奮は明白です。最近の AI ニュースでは、「ゲームチェンジャー」という用語が頻繁に飛び交います。それでも、NeMo Retriever は生成 AI と実用的なビジネス インテリジェンスを結び付ける鍵石であり、高度な AI 機能と現実世界のエンタープライズ アプリケーションの間に具体的な橋渡しをします。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード