banner
ニュース センター
専門的な知識を身につけており、有能です。

Google はどのように ML 開発を加速しているか

Nov 23, 2023

7 月 11 ~ 12 日にサンフランシスコで経営トップに会い、リーダーたちが成功に向けて AI 投資をどのように統合し、最適化しているかを聞きましょう。 もっと詳しく知る

最適化されたパフォーマンスとコストで機械学習 (ML) と人工知能 (AI) の開発を加速することが、Google の重要な目標です。

Google は今週、Vertex AI ビジョンによるサービスとしてのコンピューター ビジョンや新しい OpenXLA オープンソース ML イニシアチブなど、プラットフォームの新しい AI 機能に関する一連の発表で Next 2022 カンファレンスを開始しました。 Next 2022 イベントのセッションで、Google Cloud のアウトバウンド プロダクト マネージャーである Mikhail Chrestkha 氏は、Nvidia Merlin レコメンダー システム フレームワークのサポート、AlphaFold バッチ推論、TabNet サポートなど、追加の AI の段階的な改善について説明しました。

[VentureBeat の継続的な Google Cloud Next 2022 の報道をフォローしてください »

新しいテクノロジーのユーザーは、セッション中に自身のユースケースと経験について詳しく説明しました。

トランスフォーム 2023

7 月 11 ~ 12 日にサンフランシスコで開催されるイベントにご参加ください。そこでは、経営陣が AI 投資をどのように統合して最適化して成功に導き、よくある落とし穴を回避したかを共有します。

「強力な AI インフラストラクチャにアクセスできることは、AI から最大限の価値を引き出すための競争上の優位性になりつつあります」と Chrestkha 氏は述べています。

TabNet は、トランスフォーマー技術を使用して速度と関連性を向上させる、深い表形式のデータ学習アプローチです。

Chrestkha 氏は、TabNet が Google Vertex AI プラットフォームで利用できるようになり、ユーザーが大規模に説明可能なモデルを簡単に構築できるようになったと説明しました。 同氏は、Google の TabNet 実装では、入力データ、データのサイズ、予測タイプに基づいて適切な特徴変換が自動的に選択され、最良の結果が得られると述べました。

TabNet は、AI 予測を改善するための理論的なアプローチではありません。 これは、実際のユースケースですでに肯定的な結果を示しているアプローチです。 その初期の実装者の中には Uber があります。

Uber のシニア プロダクト マネージャーである Kai Wang 氏は、同社が作成した Michelangelo と呼ばれるプラットフォームが、現在 Uber の ML ユースケースの 100% を処理していると説明しました。 これらのユースケースには、乗車予定到着時間 (ETA)、UberEats 配達予定時間 (ETD)、乗客とドライバーのマッチングなどが含まれます。

Michelangelo の背後にある基本的なアイデアは、Uber の ML 開発者にモデルをデプロイできるインフラストラクチャを提供することです。 ワン氏は、ウーバーは自社で構築する重要なプラットフォーム分野に選択的に投資しながら、サードパーティのコンポーネントを常に評価して統合していると述べた。 Uber が依存している基本的なサードパーティ ツールの 1 つは、ML トレーニングのサポートを支援する Vertex AI です。

Wang 氏は、Uber が実際のユースケースで TabNet を評価していると指摘しました。 使用例の 1 つは、UberEat の準備時間モデルです。これは、レストランが注文を受けてから料理を準備するのにかかる時間を推定するために使用されます。 Wang 氏は、準備時間モデルは現在 UberEats で使用されている最も重要なモデルの 1 つであると強調しました。

「TabNet の結果をベースライン モデルと比較したところ、TabNet モデルはモデルのパフォーマンスの点で大きな向上を示しました」と Wang 氏は述べています。

Cohere は、大規模言語モデル (LLM) によって実現される自然言語処理 (NLP) 機能を組織が活用できるようにするプラットフォームを開発しています。

Cohere は Google の AI イノベーションからも恩恵を受けています。 Cohere の機械学習エンジニアである Siddhartha Kamilakara 氏は、彼の会社が FAX と呼ばれる独自の ML トレーニング フレームワークを構築しており、現在 Google Cloud の TPUv4 AI アクセラレータ チップを多用していると説明しました。 同氏は、FAXの仕事は数十億のトークンを消費し、数億のパラメータから数千億のパラメータまでモデルをトレーニングすることであると説明した。

「TPUv4 ポッドは世界で最も強力な AI スーパーコンピューターの一部であり、完全な V4 ポッドには 4,096 個のチップが搭載されています」とカマラカラ氏は述べています。 「TPUv4 を使用すると、大規模な言語モデルを非常に高速にトレーニングでき、それらの改善をすぐに顧客に提供できます。」

VentureBeat の使命は、技術的な意思決定者が変革をもたらすエンタープライズ テクノロジーと取引に関する知識を獲得するためのデジタル タウン スクエアとなる予定です。 ブリーフィングをご覧ください。

VentureBeat の継続的な Google Cloud Next 2022 の報道をフォローしてください » VentureBeat の使命