Knowledge

Cloudflare大規模障害障害で影響したサービスと障害の原因・影響

2025年11月18日、世界中のウェブサービスを支えるCloudflareのグローバルネットワークで大規模な障害が発生しました。


公式ステータスページでは、「内部サービスの性能劣化」が確認されたと発表され、同社が提供する複数のサービスに断続的な不具合が生じました。

Cloudflareによる最初のアナウンスは 11:48 UTC
この時点で「内部サービスに問題が発生し、一部機能の動作に影響が出ている」と報告し、復旧作業が開始されました。

障害の進展とCloudflareの対応

Cloudflareが公開した時系列は次の通りです。

🕒 タイムライン(UTC)

  • 12:21
    一部のサービスが復旧に向かう兆候は見られたものの、依然として通常より高いエラー率を記録。
  • 13:04
    ロンドン地域での復旧作業中、WARPへのアクセスが一時停止。ユーザーは一時的に接続不能に。
  • 13:09
    障害の原因を特定し、修正作業が本格的にスタート。
  • 13:13
    システムへ変更が適用され、Cloudflare Access・WARPが復旧。ロンドンでのWARPアクセスも再び利用可能に。
  • 13:35
    アプリケーションサービスを利用するユーザー向けの復旧作業が継続中と報告。

複数の工程を経て障害は段階的に解消され、主要サービスは順次復旧しました。

Cloudflareが原因を公式に説明

障害発生後、Cloudflareは公式ブログで詳細な技術レポートを公開し、今回のトラブルについて明確に説明しています。

「外部攻撃ではない」Cloudflareが明言

Cloudflareは今回の障害について、次のように強調しました。

「今回の事象は、サイバー攻撃や悪意のある活動が直接・間接に関与したものではありません」

原因は外部要因ではなく、Cloudflare内部のシステム不具合によるものであると説明しています。

原因:Bot Managementの「feature file」に異常

問題の発端となったのは、悪質ボットを判定する機能「Bot Management」。

この仕組みは機械学習モデルを用い、危険度を評価するためのデータが「feature file」というファイルにまとめられています。このファイルは数分ごとに更新される仕組み

しかし今回、feature fileを生成するシステムの更新時に本来存在しない“重複行”が作られるバグが発生。
その結果:

  • ファイルサイズが急激に増大
  • Bot Managementが整合性エラーを起こす
  • Bot Management経由のすべてのトラフィックで 500番台エラー が返される状態に

という連鎖的トラブルに発展しました。

Bot Managementは多くのサービスの通信経路で利用されているため、障害が一気に広範囲へ波及した形です。

復旧までの時系列(日本時間)

Cloudflareの報告を日本時間に置き換え、時系列で整理すると以下になります。

  • 20:28
    ユーザーのHTTPトラフィックで最初の500番台エラーを検知
  • 20:31
    Cloudflareの自動テストシステムが異常を感知
  • 20:32
    社内の技術チームが調査を開始
  • 23:24
    Bot Managementのfeature fileが原因であることを特定
  • 23:30
    修正を適用し、大部分のサービスが復旧
  • 翌 02:06
    全サービスの完全復旧を確認し、対応完了

迅速な調査により、広範囲に影響したにもかかわらず数時間で復旧が完了しました。

Cloudflareとは?

Cloudflareは、2009年に米サンフランシスコで設立されたクラウドサービス企業です。
世界中のウェブサイトやアプリケーションを高速化し、安全に保つためのサービスを提供しています。

例えるなら、インターネットという巨大な高速道路の「交通整理」と「防犯対策」を同時に担う存在。
データセンターはアメリカ、カナダ、欧州、東京を含むアジア圏など、世界各地に広がっています。

今回の障害で影響したサービス

Cloudflareはインターネットのインフラに深く組み込まれているため、障害が起こると依存するサービスが一斉に影響を受けます。

代表的な影響例は以下の通りです。

  • ChatGPT、ClaudeなどAIサービス
    → 応答が遅れる、アクセス不能など
  • X(旧Twitter)
    → 投稿が読み込めない、エラー表示など
  • Google関連サービス
    → 検索やクラウド利用で不具合の可能性
  • AWS(Amazon Web Services)
    → 世界中の企業の基盤が影響を受け、波及的に障害発生
  • Discord / Steam
    → 接続障害や遅延が発生
  • オンラインゲーム(LoL・Among Us など)
    → サーバーへの接続不可・高遅延
  • Canvaなど各種ウェブアプリ
    → 画面が読み込めない、ログインできないなど

Cloudflareが「インターネットの要」に位置していることがよく分かる状況でした。

ユーザーができること

Cloudflare障害時は、一般ユーザー側でできる対応は限られています。

  • 公式ステータスを確認する
  • SNSの誤情報に注意し、公式発表を優先
  • 復旧を待つしかない(ユーザー側で解決手段はなし)

インターネットの脆さが露呈した事件

今回の大規模障害は、便利で高速なインターネットが
たった1つのインフラに大きく依存している
という現実を浮き彫りにしました。

筆者自身も複数のサービスが同時に利用できなくなり、情報収集や作業が完全にストップ。
「効率化の裏に潜む脆弱性」を強く実感する出来事でした。

まとめ:Cloudflare障害が与えた教訓

2025年11月18日に発生したCloudflare障害は、世界的な規模でサービス停止を引き起こしました。
複数のデータセンターで行われていたメンテナンスも影響の把握を難しくし、復旧には段階的な対応が求められました。

今回の問題は、次の点を示す象徴的な事例です。

  • インターネットは少数のインフラ企業に大きく依存している
  • そのため単一障害で世界的なサービス停止が起こり得る
  • サービス提供側は冗長化・分散化の重要性を再認識すべき

  1. この記事へのコメントはありません。

  1. この記事へのトラックバックはありません。

関連記事一覧

検索