Improve documentation for wait_on_rate_limit parameter for streaming
authorHarmon <Harmon758@gmail.com>
Sat, 22 Oct 2022 00:55:53 +0000 (19:55 -0500)
committerHarmon <Harmon758@gmail.com>
Sat, 22 Oct 2022 00:56:05 +0000 (19:56 -0500)
Resolves part of #1986

tweepy/asynchronous/streaming.py
tweepy/streaming.py

index b8bebf525c485cc7be197ff09c165f89d2af1cd7..58eba22c430bf58d2079a9d6ee19069738d7d601 100644 (file)
@@ -570,7 +570,9 @@ class AsyncStreamingClient(AsyncBaseClient, AsyncBaseStream):
     return_type : type[dict | requests.Response | Response]
         Type to return from requests to the API
     wait_on_rate_limit : bool
-        Whether to wait when rate limit is reached
+        Whether or not to wait before retrying when a rate limit is
+        encountered. This applies to requests besides those that connect to a
+        stream (see ``max_retries``).
     max_retries: int | None
         Number of times to attempt to (re)connect the stream.
     proxy : str | None
index 9228a9e21496d8cdb62fdf0c6018196e33236b67..145f71dd9ff737eef0bd909c289565cdb96b34f0 100644 (file)
@@ -563,7 +563,9 @@ class StreamingClient(BaseClient, BaseStream):
     return_type : type[dict | requests.Response | Response]
         Type to return from requests to the API
     wait_on_rate_limit : bool
-        Whether to wait when rate limit is reached
+        Whether or not to wait before retrying when a rate limit is
+        encountered. This applies to requests besides those that connect to a
+        stream (see ``max_retries``).
     chunk_size : int
         The default socket.read size. Default to 512, less than half the size
         of a Tweet so that it reads Tweets with the minimal latency of 2 reads