2026.04.11 | テクノロジー

Uberの裏側、AWSとAIが支えるリアルタイム処理の全体像

Uberのアプリを開いて配車や配達を依頼すると、ほとんど待たされることなく結果が返ってきます。その裏側では、位置情報や需要をもとにした複雑な判断が瞬時に行われています。今回は、UberがAWSを使ってどのようにその仕組みを支え、AI活用を進めているのかを解説します。

ミリ秒で判断する仕組み──Uberを支えるTrip Serving Zonesとリアルタイム処理

Uberのサービスを支えているのが「Trip Serving Zones」と呼ばれる仕組みです。配車や配達のリクエストごとに、最適なドライバーや配達員を選び出すリアルタイム基盤であり、アプリ上では短いやり取りに見える裏で、ミリ秒単位の処理が連続しています。
処理の中では、利用者の位置情報や周辺のドライバーの状況に加え、需要の変動といった複数のデータを同時に扱いながら判断が行われます。ここで重要になるのが「レイテンシ(処理の遅延時間)」で、わずかな遅れでもマッチングの質や体験に影響が出るため、速度と安定性の両立が欠かせません。
こうした処理を支えるため、Uberはこの基盤をAWS上で運用し、需要が急増する時間帯やイベント時でも安定した動作を維持しています。こうしたリアルタイム処理の精度を支えるには、基盤そのものの性能も重要になり、次に触れる計算環境の進化がその土台となっています。

インフラとAIの進化──AWS Graviton4とTrainium3がもたらす変化

リアルタイム処理の精度を維持するため、Uberは計算基盤とAIの両面で見直しを進めています。その中核となるのが、AWSの専用チップであるGraviton4とTrainium3です。役割は明確に分かれており、サービスの処理とAIの学習をそれぞれ担っています。
Graviton4は、Trip Serving Zonesのようなリアルタイム処理を支えるチップです。ミリ秒単位の処理を維持しながら、消費電力を抑えつつ動作する設計になっており、需要が急増する場面でも柔軟に処理を拡張できます。その結果、遅延の抑制とコスト最適化の両立が可能になります。

一方でTrainium3は、AIモデルのトレーニングに使われます。ここでいうトレーニングとは、過去のライドや配達のデータをもとに、ドライバーの割り当てや到着時間をより正確に予測できるようにする工程を指します。Uberはこのチップを使い、一部のAIモデルの学習を試験的に進めています。こうした取り組みによって、リアルタイムの処理だけでなく、その判断自体の精度も改善されていきます。
つまりUberは「速く処理する仕組み」と「正しく判断する仕組み」の両方を同時に強化している状態です。この2つが揃うことで、初めて今のスムーズな体験が成立しています。

まとめ

いかがだったでしょうか?
Uberのスムーズな配車や配達は、ミリ秒単位で判断する仕組みと、それを支えるインフラによって成り立っています。さらに、AWS Graviton4やTrainium3の活用により、処理とAIの両面での最適化が進められています。こうした基盤の積み重ねが、日常的な使いやすさを支えており、普段何気なく使っているサービスの裏側を知ることで、その仕組みがより具体的に見えてきます。