レートリミッターとは
クライアントやサービスから送信されるトラフィックの速度を制御する仕組み。 例えば、APIレートリミッターを使用すると、APIリクエスト数が指定した閾値を超えると、すべてのコールがブロックされる。
レートリミッターの目的
- DoS攻撃によるリソースの枯渇を防ぐ
- コストの削減
- サーバの過負荷を防ぐ
レートリミッターのレイヤ
レートリミッタはクライアントサイドとサーバサイド両方に設置することができます。
クライアントサイドでの実装
クライアントサイドに設置すると、リクエストを偽造される可能性がある。
以下はlodash
を使用してAPIリクエストをスロットリングする例です。
サーバサイドでの実装
サーバサイド側で実装した場合、アルゴリズムは完全に制御でき、技術スタックなども有効なものを使用することができるが、レートリミッターを独自に構築することはコストがかかります。
ミドルウェアで実装
ミドルウェアでレートリミッターを実装すると、リクエストをスロットリングし、ステータスコード429のレスポンスを返します。 429のステータスコードはユーザが多すぎるリクエストを送信したことを表します。
クラウドマイクロサービスなどでは、APIゲートウェイというレート制限、SSL終了、認証、IPホワイトリスト、静的コンテンツのサービなどをサポートするフルマネージドサービスがあります。サーバサイドにレートリミッターを設置するのに対して、APIゲートウェイはマイクロサービスと相性がよく、導入も容易いです。
レートリミッターのアルゴリズム
レートリミッターにはあらゆるアルゴリズムが存在する。
- リーキーバケット(Leaky Bucket)
- トークンバケット(Token Bucket)
- 固定ウィンドウカウンタ(Fixed Window Counters)
- スライディングウィンドウログ(Sliding Window Log)
- スライディングウィンドウカウンタ(Sliding Window Counter)
リーキーバケットアルゴリズム
リーキーバケットアルゴリズムは、穴あきバケツとも呼ばれ、トークンバケットと似ているが、リクエストの処理速度が一手であり、バケットがFIFO(先入れ先出し)のキューで実装される。Shopifyなどがレート制限に使用している。
リーキーバケットアルゴリズムでは、以下2つのパラメータを取る。
- バケットサイズ : キューサイズと同じ。キューは一定の割合で処理されるリクエストを保持する
- 流出率 : 一定の割合で処理できるリクエスト数を定義する(一般的には秒単位で指定する)
リーキーバケットアルゴリズムのメリットは
- キューサイズに制限があるのでメモリ効率が良い
- リクエストは固定レートで処理されるため、安定した流出レートが必要なユースケースに適している
それに対して、デメリットは、
- トラフィックのバーストは古いリクエストでキューを見たし、それらが時間内に処理でされない場合、新しいリクエストはレート制限される
- パラメータのチューニングを適切にするのが難しい可能性がある
トークンバケットアルゴリズム
シンプルでわかりやすく、幅広く使われている。AmazonやStripeはこのアルゴリズムでAPIリクエストを制限している。 トークンバケットというあらかじめ決められた容量のコンテナがあり、定期的にトークンが入れられる。
以下の例では、容量4のトークンバケットがあり、そこに1秒に2個のトークンが定期的に入れられる。バケットがいっぱいだと、余分なトークンは溢れる。
上記のようなトークンバケットの仕組みを用いて、リクエストを捌いていく。
- 定期的にトークンがバケットに追加される
- トークンがバケット内に残っていれば、トラフィックを通す(1リクエストにつき1トークン)
- トークンがバケット内に残っていなければ、トラフィックを破棄する(キューに入れてもよい)
トークンバケットアルゴリズムでは以下2つのパラメータを取る。
- バケットサイズ : バケットに入れられるトークンの最大数
- 補充率 : 1秒間にバケットに入れられるトークン数
また、状況に応じてバケットの数が変動する。例えば以下のような例が挙げられる。
- APIエンドポイントごとに異なるバケットを用意する
- IPアドレスに基づいてリクエストを制限する場合は、IPアドレスごとに1つのバケットを容姿する
- 1秒間に最大10000のリクエストを許可する場合、すべてのリクエストで共有されるグローバルバケットを使用する
トークンバケットアルゴリズムのメリットは以下のようなものがある。
- アルゴリズムが簡単
- メモリ効率が良い
- 短時間のバーストトラフィックが可能(トークンがある限り、リクエストは通過できる)
それに対して、デメリットはパラメータを適切に設定するのが難しいことが挙げられる。
固定ウィンドウカウンタアルゴリズム
- タイムラインを固定サイズのタイムウィンドウに分割し、各ウィンドウにカウンタを割り当てる
- 各リクエストはカウンタを1つずつ増加させる
- カウンタが事前に定義された閾値に達すると、新しいタイムウィンドウが始まる間で新しいリクエストは新しいタイムウィンドウが始まるまで落とされる
このアルゴリズムのメリットは以下のようになっている。
- メモリ効率が良い
- 理解が容易
- 単位時間のウィンドウが終了した時点で利用可能な割り当てをリセットすることは、特定のユースケースに適合している
このアルゴリズムの問題は、タイムウィンドウの端でトラフィックのバーストが発生したら、許可されるクォータよりも多くのリクエストが通過してしまうことである。また、通過する許容割り当てより多くの再リクエストがある可能性がある。
スライディングウィンドウログアルゴリズム
- リクエストのタイムスタンプを追跡する。タイムスタンプのデータは通常Redisのソートされたセットのようなキャッシュに保持される
- 新しいリクエストが来たら、古いタイムスタンプをすべて削除する。古いスタンプとは、現在のタイムウィンドウの開始時点より古いものを指す
- 新しいリクエストのタイムスタンプをログに追加する
- ログのサイズが許容カウントと同じかそれ以下の場合、リクエストは受け入れられる。そうでなければ拒否される。
このアルゴリズムのメリットは、実装されたレート制限は非常に正確であることである。どのローリングウィンドウにおいてもリクエストはレート制限を超えることはない。 それに対して、デメリットは、たとえ再探索が拒否されても、そのタイムスタンプがまだメモリに保存されているかもしれないため、多くのメモリを消費する。
スライディングウィンドウカウンタアルゴリズム
スライディングウィンドウカウンタアルゴリズムは、固定ウィンドウカウンタとスライディングウィンドウログを組み合わせたハイブリッドアプローチ。
このアルゴリズムの実装は2つの方法がある。
メリットは、
- 直前のウィンドウの平均レートに基づいているため、トラフィックのスムーズな急増が可能になる
- メモリ効率が良い
デメリットは、あまり厳密でないルックバックウィンドウにしか使えないことが挙げられる。前のウィンドウのリクエストが均等に分散していると仮定しているため、実際のレートに近接している。しかし、Cloudflareの実験では、4億のリクエストのうち間違えて許可された、またはレート制限されたリクエストは0.003%だけである。
カウンタの保存場所
レートリミッタのアルゴリズムに使用するカウンタは、データベースに保存してはいけない。データベースに保存すると、ディスクアクセスが遅いからである。
高速、時間ベースの有効期限戦略をサポートしているインメモリキャッシュを使用する。RedisはINCR、EXPIREという2つのコマンドを提供するインメモリストアでよく使われる。
- INCR : 格納されたカウンタを1だけ増加
- EXPIRE : カウンタにタイムアウトを設定する。タイムアウトが終了するとカウンタは自動的に削除する