Graphon AIは、大規模言語モデルの効率を高め、実質的に無制限のデータを処理できるようにすると主張する新しい「インテリジェンス・レイヤー」を携えてステルス状態から脱却しました。
Graphon AIは、大規模言語モデルの効率を高め、実質的に無制限のデータを処理できるようにすると主張する新しい「インテリジェンス・レイヤー」を携えてステルス状態から脱却しました。

AIスタートアップのGraphon AIは、現在の人工知能の核心的な限界、すなわち膨大で相互に関連するデータセットを理解するために必要な莫大かつ高コストな計算負荷に対処するため、830万ドルのシード資金を確保しました。同社の「インテリジェンス・レイヤー」は、大規模言語モデルの外側でデータ間の関係をマッピングすることを目指しており、これにより処理コストを削減し、これまでアクセスできなかった情報から洞察を引き出すことが可能になります。
本ラウンドを主導したNovera Venturesのアーヴィンド・グプタ氏は、「これはAIを少し効率化するようなものではなく、根本的に新しい技術だ」と述べています。
「最も高度なLLMであっても、一度に処理できるのは数百万トークンに制限されている一方で、組織はドキュメント、ビデオ、ログ、データベース全体で数兆トークンを保有している」と同社は指摘しています。Perplexity Fund、Samsung Next、GS Futures、Hitachi Venturesなどが参加したGraphonの830万ドルのシードラウンドは、このギャップを埋めるために設計されたAIインフラ基盤の構築に充てられます。
この技術の成功は、現在の手法に代わるより効率的でスケーラブルな選択肢を提供することで、AIインフラの展望に影響を与える可能性があります。膨大な非構造化データセットを抱える企業にとって、より安価に価値を抽出するための潜在的な手段となります。これは将来の投資トレンドを左右し、大規模LLMに依存する企業の競争力に影響を与える可能性があります。
サンフランシスコに拠点を置く同社は、元Amazonのシニア応用科学者でCEOを務めるアルバズ・カーン氏によって設立されました。カーン氏は、文書やビデオからシステムログに至るまで、組織の全データ領域のリレーショナルマップを、LLMに投入する前に作成することがアイデアだと語ります。この前処理は、巨大なモデルが接続を見つけるためにすべてのデータを繰り返し分析するよりも効率的になるよう設計されています。
カーン氏は、ペンシルベニア大学でのロボティクス博士課程の研究からインスピレーションを得ました。定義された空間で動作するロボットは、その構造に関する知識を利用して計算の必要性を減らすことができる、と同氏は説明します。彼は同様のアイデアをデータに応用し、共有されたリレーショナル特性に基づいて異種のユーザーやデータポイントを「近傍」として識別・グループ化できる「グラフォン(graphon)」という数学的概念を利用しました。LLMのトランスフォーマー技術がどの単語が関連しているかを解明するために膨大な電力を費やすのに対し、カーン氏のインテリジェンス・レイヤーはこの作業を別途行います。「我々はこの大きなリレーショナル表現を構築し、それがモデルに供給されます。モデルにすべての重労働をさせる代わりです」とカーン氏は述べました。彼はこれが莫大な節約になると主張し、「5兆パラメーターのモデルを1時間動かそうとするよりも、2億パラメーターのモデルを1000回動かす方がはるかに効率的だ」と述べています。
韓国のコンングロマリットであるGSは、GS Futures部門を通じて投資しており、すでにこの技術を使用しています。GSのデジタル変革イニシアチブ「52g」を率いるアリー・キム副社長は、チームが建設現場の安全コンプライアンスを監視するCCTV映像の分析を改善するためにGraphonを使用したと語りました。また、同社はGSがスポンサーを務めるチームのスカウトのためにサッカー選手のビデオをより効率的に分析し、動き、強み、弱みを評価するためにも使用しました。「音声やビデオ、その他のコンテキストなど、マルチモーダルに知識の範囲を広げる必要があります。Graphonは良いサポートになります」とキム氏は述べています。
この記事は情報提供のみを目的としており、投資アドバイスを構成するものではありません。