InfiniCloud® AIの
アーキテクチャ
InfiniCloud® AIは、企業の持つ知識や情報を「知恵」として学習可能とする国産プライベートAI基盤です。
最小構成から導入可能なアーキテクチャにより、グローバルな大規模パブリックAIでは扱えなかった「局所的な課題」を、高精度に推論します。さらに、知識は完全隔離された環境に保存・運用され、外部AIとの接続を行わない設計により、厳しいセキュリティ制約のある企業でも安心して活用可能です。
ランゲージモデルを中心に、高度なデータパイプライン、Fine-Tune/RAG対応、OpenAI互換APIの提供といった要素を統合した本製品は、いまから「使える」プロダクション環境として設計されています。
Private AIとローカルLLMとの違い
LLMはランゲージモデルであり重みの集合データです。それを動かすためにLLMエンジンがあり、ローカルLLMを簡単に体験し、利用することができます。LLMとLLMエンジンだけでできることはクエリに対しての回答(APIで言えばcompletions)ぐらいなのでで、ローカルLLMを立ち上げても「思ったよりも使えないな?」と感じた方も多いでしょう。
一般的なクラウド型の「Public AI」は、データを運び、処理し、必要なロジックをもち、LLMを1つのパーツとして動かす為の、データパイプラインを持っています。またLLMも1つではなく、目的毎に異なるサブLLMを持っています。
InfiniCloud AIも同じように、複数のウェイトモデル(LLM/SLM/VLMなど)を持ち、独自のツールチェインと、MCPを用いたサーバサイドツールチェインを投入させることができます。
データパイプラインの中で、これらのウェイトモデル(LLM/SLM/VLMなど) は使い分けられ、データパイプラインを持ち、近傍を検索したり、複雑な問題を分割したり、ツールチェインに割り振ったり、会話を担当するライティングするLLMがいたりします。
また、特定分野(ドメイン)向けの知識を知恵に昇華させるため「ファインチューン(Fine Tune)」を行い、特定分野に特化したモデルに徐々に変容していきます。これは、Public AIにも難しい機能です。
あなたがもし、公開用の自社サービスサポートエージェントを作りたいなら、さらに負荷分散、リソース制御技術、Web技術、コンテナ隔離技術、ハイパバイザ技術などを統合する必要があります。InfiniCloud AIはこれらの技術にも対応しています。
InfiniCloud AIは、「プロダクション」として「動く」ことに徹底的に拘り、実験ではなく「使える」Private AIエンジンなのです。
InfiniCloud AIでのウェイトモデル(LLM,VLMなど)の考え方
LLMやVLMなどのウェイトモデルは「重みの集合データ」で過ぎず「夢想する電子の脳」でしかありません。ここに手足や中枢が組み込まれていき、AIを作りあげられていきます。
しかしながら、LLMはAIを構成する最も重要なパーツであることも間違いありません。しかし残念ながら、現在のInfiniCloudのLLMは「乱数からプリ・トレーニングした純国産LLM」ではありません。ですから、InfiniCloud AIではLLMのベースモデルを、「作りあげられたopus」として最大限リスペクトし、これをベースにTransfer Learningする手法を採っています。
ライティングに使っているベースLLMは、OpenAI社のGPT OSSや、Alibaba社Qwen、東京科学大学のSwallowなど、オープンランゲージモデルを元に、InfiniCloudがTransfer Learningを行い、日本の社会人常識を備えるようにファインチューンされたLLMです(※)。このInfiniCloud LLMは、ランゲージモデルとして新しいベースランゲージモデルが出る度に、Transfer Learningを行い、アップデートされる予定です。
InfiniCloud AIの中には、実際には1つのLLMだけでなく、複数のLLMが動作しています。特定用途向けのLLMとして画像の解析や、音声の解析、その他、用途に特化したLLMも搭載しており、小型モデルはベースモデルのまま使われていることもあります。
※ ただし、残念ながら今現在のモデルは、データセット量がすくなく、ベースモデルから大きな違いはありません。
あなたの会社に入社したInfiniCloud AIは、あなたの会社がもつ情報で育ち、あなたの会社の従業員となり、ファインチューニングされ、いずれはエキスパートとなるでしょう。
そしてInfiniCloud LLMのベースモデルがアップデートされると、InfiniCloud AIのパイプラインから蓄えた記憶を引き継ぎ、新しいInfiniCloud AIに生まれ変わることもできます。
LLM-as-a-Serviceを実行するエンジン
AIが、あなたの会社の中で学び、育つ。それがInfiniCloud® AIです。
社内ドキュメントから育てたドメイン特化AIを、OpenAI互換のAPIでそのまま呼び出せます。completions互換で既存エンジンに組み込みやすく、さらにassistants/responses対応で、次世代アプリにも柔軟に統合できます。
RAGやファインチューニングで育てたAIは、あなたの業務知識を白糸のように編み込み、Public AIにはない「組織固有の知恵」を返す存在に。
秘匿情報を安全に扱いながら、自社アプリやSaaSと連携し、AIサポートや社内自動化を思いのままに。
InfiniCloud AI ── Private LLMaaSの、開発者にやさしい進化形。
継続的拡張
昨今の進化の速いAI業界においても、ランゲージモデルの置き換えや、ミドルウェアのアップデートにも対応。InfiniCloud AIの根幹を担うソフトウェア「Shiraito」自体も継続的なアップデートが行われます。



LLMaaSを実現するスタック