Fix a few errors in docs, comments, and tests
authorKazuhiro Sera <seratch@gmail.com>
Thu, 30 Dec 2021 08:31:23 +0000 (17:31 +0900)
committerKazuhiro Sera <seratch@gmail.com>
Thu, 30 Dec 2021 08:31:23 +0000 (17:31 +0900)
docs/streaming.rst
examples/update_status.py
tests/test_api.py
tests/test_rate_limit.py
tweepy/cache.py
tweepy/client.py

index 4856c5e5c9041c571e4cb49eb165187e1a226696..7206a82a4953559c766743301976fce6aa8be93e 100644 (file)
@@ -18,7 +18,7 @@ through repeated requests by your client app, as might be expected from a REST
 API, a single connection is opened between your app and the API, with new
 results being sent through that connection whenever new matches occur. This
 results in a low-latency delivery mechanism that can support very high
-throughput. For futher information, see
+throughput. For further information, see
 https://developer.twitter.com/en/docs/tutorials/consuming-streaming-data
 
 Using :class:`Stream`
@@ -85,7 +85,7 @@ encountered while trying to connect to the stream. When these errors are
 encountered and ``max_retries``, which defaults to infinite, hasn't been
 exceeded yet, the :class:`Stream` instance will attempt to reconnect the stream
 after an appropriate amount of time. By default, all three of these methods log
-an error. To customize that handling, they can be overriden in a subclass::
+an error. To customize that handling, they can be overridden in a subclass::
 
     class ConnectionTester(tweepy.Stream):
 
index 76109089d9770dd1b5e3a39e7d54f1d29d3da959..7c1fa69543348f421b6ee5e26acec4bba2d77784 100644 (file)
@@ -13,7 +13,7 @@ api = tweepy.API(auth)
 
 # Tweet / Update Status
 
-# The app and the corresponding credentials must have the Write perission
+# The app and the corresponding credentials must have the Write permission
 
 # Check the App permissions section of the Settings tab of your app, under the
 # Twitter Developer Portal Projects & Apps page at
index d0543b602ca3c8a69dc4e1514e6c5b4e162ad0a6..a576ed11b771dcc592783a82d73045772f1a2719 100644 (file)
@@ -19,9 +19,9 @@ class TweepyAPITests(TweepyTestCase):
 
     #@tape.use_cassette('testfailure.json')
     #def testapierror(self):
-    #    from tweepy.error import TweepError
+    #    from tweepy.errors import TweepyException
     #
-    #    with self.assertRaises(TweepError) as cm:
+    #    with self.assertRaises(TweepyException) as cm:
     #        self.api.direct_messages()
     #
     #    reason, = literal_eval(cm.exception.reason)
index c57c6cf32a28e3231656e2f01ed16d998a25e955..1f6f576142a6bae51948d9d59790a4d0aa790e33 100644 (file)
@@ -26,7 +26,7 @@ class TweepyRateLimitTests(unittest.TestCase):
             try:
                 self.api.user_timeline(user_id=user_id, count=1, include_rts=True)
             except HTTPException as e:
-                # continue if we're not autherized to access the user's timeline or user doesn't exist anymore
+                # continue if we're not authorized to access the user's timeline or user doesn't exist anymore
                 if e.response.status_code in (401, 404):
                     continue
                 raise e
index 61bc8a589edfec5e2af5086aa33b77f297a9660a..9c53771c5fd3aa7de79da6f9359ca4263dea8dca 100644 (file)
@@ -359,7 +359,7 @@ class RedisCache(Cache):
 
     def count(self):
         """Note: This is not very efficient,
-        since it retreives all the keys from the redis
+        since it retrieves all the keys from the redis
         server to know how many keys we have"""
         return len(self.client.smembers(self.keys_container))
 
@@ -388,7 +388,7 @@ class RedisCache(Cache):
 
 
 class MongodbCache(Cache):
-    """A simple pickle-based MongoDB cache sytem."""
+    """A simple pickle-based MongoDB cache system."""
 
     def __init__(self, db, timeout=3600, collection='tweepy_cache'):
         """Should receive a "database" cursor from pymongo."""
index 10acdc574933a7acbfb6bfed599b47adf97a6c39..7e24a644b0479cff23a09e94aca7d9bd20db85b7 100644 (file)
@@ -1036,7 +1036,7 @@ class Client:
             default to [now - 30 seconds].
         granularity : str
             This is the granularity that you want the timeseries count data to
-            be grouped by. You can requeset ``minute``, ``hour``, or ``day``
+            be grouped by. You can request ``minute``, ``hour``, or ``day``
             granularity. The default granularity, if not specified is ``hour``.
         next_token : str
             This parameter is used to get the next 'page' of results. The value
@@ -1104,7 +1104,7 @@ class Client:
             parameter.
         granularity : str
             This is the granularity that you want the timeseries count data to
-            be grouped by. You can requeset ``minute``, ``hour``, or ``day``
+            be grouped by. You can request ``minute``, ``hour``, or ``day``
             granularity. The default granularity, if not specified is ``hour``.
         since_id : Union[int, str]
             Returns results with a Tweet ID greater than (that is, more recent