エネルギー効率に優れたオン・デバイスAIプラットフォームで、どこでも誰でも使えるAIを加速

  • 長年にわたる量産実績を誇るTensilicaアーキテクチャーをベースに構築され、ドメインに特化した拡張可能かつコンフィグラブルなAIプラットフォーム
  • オン・デバイスAIアプリケーションに業界をリードするパフォーマンスおよびエネルギー効率を提供
  • 様々なターゲット市場に対応する包括的な共通AIソフトウェア
  • 様々なPPA (Power, Performance and Area) とコスト目標に対して全範囲に対応するローエンド、ミドルレンジ、ハイエンドAI製品ファミリー
  • 現時点で8 GOPSから32 TOPSまで、そして将来の数百TOPSのAI要件に対応するスケーラビリティ

幅広いアプリケーションや垂直セグメントでAIベースのタスクに対する需要が高まるにつれ、オン・デバイスおよびエッジAI処理がますます普及してきました。これらのソリューションは、さまざまな演算能力や電力要件を備えたSoCによって展開されるため、自動車、民生、産業、モバイルなどの幅広いアプリケーションの市場ニーズを満たすことは、シリコンIPプロバイダーとSoC企業の両方にとって困難な課題となります。

包括的なCadence® Tensilica™ AI プラットフォームは、SoC開発者がKPIや要件に基づいてアプリケーションに必要なソリューションを設計し、提供することを加速します。このプラットフォームには、様々なデータやオン・デバイスのAI要件に向けて最適化された3つのAI製品ファミリーが含まれており、共通のソフトウェア・プラットフォームと相まって、最適なパワー、パフォーマンス、エリア(PPA)を提供します。これらにより、今日のユビキタスAI SoCの鍵となる、スケーラブルでエネルギー効率の高いオン・デバイスからエッジまでのAI処理を実現します。テンシリカのAIプラットフォームは、ローエンド、ミドルエンド、ハイエンドの各クラスに対応しており、アプリケーションに特化したテンシリカのDSPアーキテクチャ上に構築されています。

この3つのAI製品ファミリーは、「AI Base」「AI Boost」「AI Max」です。

  • AI Baseには、オーディオ/ボイス向けTensilica HiFi DSP、Vision DSPs、レーダー/ライダーおよび通信向けConnX DSPを含み、AI命令セットアーキテクチャ(ISA: instruction-set architecture) 拡張が行われています
  • AI Boostでは、コンパニオンのニューラルネットワークエンジンを提供しており(Tensilica AI NNE 110エンジンから提供開始)、64から256GOPSまでのスケーラブルに対応し、並列処理および効率のよい推論を提供します
  • AI Maxには、AI BaseおよびAIBoostテクノロジーを統合するTensilica NNA 1xx AIアクセラレーターファミリーを提供、現時点ではTensilica NNA 110アクセラレーターおよびNNA 120、NNA 140、NNA 180マルチコアアクセラレーターオプションを提供しています。マルチコアNNAアクセラレーターは最大で32 TOPSまで拡張可能で、将来のNNA製品は数百TOPSに対応するスケーラビリティをターゲットとしています。マルチコアNNAアクセラレーターは最大で32 TOPSまで拡張可能で、将来のNNA製品は数百TOPSに対応するスケーラビリティをターゲットとしています。

さらに、共通のAIソフトウェアは、すべてのワークロードや市場に対応するように設計されているため、製品開発が効率化され、設計要件の変化に応じて容易に移行することができます。テンシリカのAI製品は、Convolution、FC、LSTM、LRN、Poolingなど、すべてのニューラルネットワークのレイヤーを実行できます。

 Tensilica AI Platform Graphic

ローエンド、ミドルレンジ、ハイエンドのAIプラットフォームで、性能、消費電力、コストの全領域に対応

拡張性、コンフィギュラビリティ、Sparse Compute Engineを備えたAIプラットフォーム

スケーラブルな設計でさまざまなAIワークロードに対応

AI Baseは、市場実績のある電力効率の高いドメイン・スペシフィックDSP上に構築されています。スケーラブルなAI BoostとAI Maxは、低い計算能力(1TOPS未満)から非常に高い計算能力(数百TOPS)のニーズまで対応可能

最先端のDL/AIワークロードを効率的にマッピング

低レイテンシー・スループットな処理により、1秒あたりの推論数でクラス最高のパフォーマンスを実現

すべての市場と多数のフレームワークに対応するend-to-endのソフトウェアツールチェーン

GLOWベースのXtensa® Neural Network Compiler (XNNC)、インタープリタ、およびデリゲートベースのAIソフトウェアツール

真のランダムスパース性による推論性能の向上

テンソルのスパース性を利用したスパースコンピュートAIエンジン(ウェイトとアクティベーションの両方)

業界をリードするパフォーマンスと電力効率

高いMAC使用率と電力あたりのTOPS性能、かつ低エネルギー消費の組み合わせ

幅広い用途に対応するために

  • ヒアラブル&ウェアラブル
  • トゥルーワイヤレスステレオ
  • スマートスピーカー
  • AR/VRヘッドセット
  • Automotive
  • モバイル
  • ドローンとロボット
  • インテリジェントカメラ
  • プライベートオンプレミス型コンピューティング

AIのハードウェアとソフトウェアの包括的な提供

AI Max

  • 迅速な市場投入を可能にするターンキーAI製品群
  • AI BaseとAI Boost製品を使って構築
  • マルチコアに必要なDMAサポートとシステムロジックの統合
  • Tensilica NNA 1xxファミリーは、最大32のTOPSを提供

AI Boost

  • スケーラブルでエネルギー効率の高いAIエンジンを追加してAI Baseの上に構築
  • 最初のAIエンジンはTensilica NNE 110で、32から128の8x8 MACと64から256のGOPSを提供
  • AIエンジンは、最高のパフォーマンスとエネルギー効率を達成するためにスパースコンピュートを提供
  • テンソルの圧縮によるメモリの高帯域化と低エネルギー化
  • GPUと比較して最大4倍のパフォーマンス
  • Tensilica DSPと比較して80%のエネルギー削減
  • AIベースと比較して4倍以上のTOPS/W

AI Base

  • 高い評価を得ているVisionおよびHiFi DSPをベースに、8GOPSから最大2TOPSのAI性能を提供
  • これらの成功したDSPは、AIワークロードに最適化された命令セット、必要な8x8、8x16、16x16の乗算器、その他様々なNN層のために改良された命令を提供
  • すべてのDSPは、128ビットSIMDから1024ビットSIMDまでのVLIWおよびSIMDアーキテクチャで構成されています。
  • 固定データ型、フロート型、複合データ型のサポート
  • Tensilica Instruction Extension (TIE)言語によるコンフィグラブルで拡張が可能
  • CPUと比較して30倍以上のパフォーマンス
  • CPUと比較して最大10倍のエネルギー効率を実現

AI Software

  • ターンキーソリューション。自動化されたエンドツーエンドのツールチェーン
  • NNコンパイラ、Androidニューラルネットワーク(ANN)、TFlite Delegates、TFLiteMicro、インタプリタ、包括的なNNLibをサポート
  • ライトプルーニングされた量子化モデルがスパースなAIエンジンを利用する
  • 様々なワークロードやフレームワークに対応可能
  • 固定小数点の量子化で浮動小数点モデルの精度に迫る
  • プルーニングとクラスタリングにより、モデルサイズを最大8倍に縮小
  • テンソルの圧縮によるメモリの高帯域化と低エネルギー化