]> git.ipfire.org Git - thirdparty/sqlalchemy/sqlalchemy.git/commitdiff
Fix many spell glitches in docstrings and comments
authorLele Gaifax <lele@metapensiero.it>
Sun, 24 Jan 2021 18:59:03 +0000 (13:59 -0500)
committersqla-tester <sqla-tester@sqlalchemy.org>
Sun, 24 Jan 2021 18:59:03 +0000 (13:59 -0500)
These were revealed by running `pylint --disable all --enable spelling --spelling-dict en_US` over all sources.

Closes: #5868
Pull-request: https://github.com/sqlalchemy/sqlalchemy/pull/5868
Pull-request-sha: bb249195d92e3b806e81ecf1192d5a1b3cd5db48

Change-Id: I96080ec93a9fbd20ce21e9e16265b3c77f22bb14

41 files changed:
lib/sqlalchemy/connectors/mxodbc.py
lib/sqlalchemy/dialects/mssql/json.py
lib/sqlalchemy/dialects/mysql/base.py
lib/sqlalchemy/dialects/mysql/json.py
lib/sqlalchemy/dialects/mysql/provision.py
lib/sqlalchemy/dialects/mysql/reflection.py
lib/sqlalchemy/dialects/oracle/base.py
lib/sqlalchemy/dialects/oracle/cx_oracle.py
lib/sqlalchemy/dialects/postgresql/base.py
lib/sqlalchemy/dialects/postgresql/ext.py
lib/sqlalchemy/dialects/postgresql/json.py
lib/sqlalchemy/dialects/postgresql/psycopg2.py
lib/sqlalchemy/dialects/postgresql/ranges.py
lib/sqlalchemy/dialects/sqlite/base.py
lib/sqlalchemy/dialects/sqlite/json.py
lib/sqlalchemy/dialects/sqlite/pysqlite.py
lib/sqlalchemy/engine/interfaces.py
lib/sqlalchemy/engine/result.py
lib/sqlalchemy/ext/asyncio/result.py
lib/sqlalchemy/ext/declarative/extensions.py
lib/sqlalchemy/orm/decl_api.py
lib/sqlalchemy/orm/loading.py
lib/sqlalchemy/orm/mapper.py
lib/sqlalchemy/orm/persistence.py
lib/sqlalchemy/orm/query.py
lib/sqlalchemy/orm/relationships.py
lib/sqlalchemy/orm/session.py
lib/sqlalchemy/sql/annotation.py
lib/sqlalchemy/sql/base.py
lib/sqlalchemy/sql/compiler.py
lib/sqlalchemy/sql/crud.py
lib/sqlalchemy/sql/elements.py
lib/sqlalchemy/sql/lambdas.py
lib/sqlalchemy/sql/operators.py
lib/sqlalchemy/sql/selectable.py
lib/sqlalchemy/sql/util.py
lib/sqlalchemy/testing/requirements.py
lib/sqlalchemy/util/_concurrency_py3k.py
lib/sqlalchemy/util/compat.py
lib/sqlalchemy/util/langhelpers.py
lib/sqlalchemy/util/queue.py

index cd40863e4c4d8b7fc499b274546306b14ab798c5..153a836d2c3a9ebd87289807cb87218769eee557 100644 (file)
@@ -108,7 +108,7 @@ class MxODBCConnector(Connector):
             connect(dsn, user='', password='',
                     clear_auto_commit=1, errorhandler=None)
 
-        This method translates the values in the provided uri
+        This method translates the values in the provided URI
         into args and kwargs needed to instantiate an mxODBC Connection.
 
         The arg 'errorhandler' is not used by SQLAlchemy and will
index 2cae3f77441fe1136f9d7e658177a024c74482e3..d5157312c72a6638ffa47dfb5dc13efa400c896d 100644 (file)
@@ -22,7 +22,7 @@ class JSON(sqltypes.JSON):
 
     .. seealso::
 
-        :class:`_types.JSON` - main documenation for the generic
+        :class:`_types.JSON` - main documentation for the generic
         cross-platform JSON datatype.
 
     The :class:`_mssql.JSON` type supports persistence of JSON values
index 63dbbd83e61f5fa845a9beb3f68dab893fc26740..c350316133f9cd62e2152d164e0d924373f369bb 100644 (file)
@@ -125,7 +125,7 @@ of ``1024``::
         mysql_key_block_size="1024"
        )
 
-When supporing :ref:`mysql_mariadb_only_mode` mode, similar keys against
+When supporting :ref:`mysql_mariadb_only_mode` mode, similar keys against
 the "mariadb" prefix must be included as well.  The values can of course
 vary independently so that different settings on MySQL vs. MariaDB may
 be maintained::
@@ -272,7 +272,7 @@ Server Side Cursors
 -------------------
 
 Server-side cursor support is available for the mysqlclient, PyMySQL,
-maridbconnector dialects and may also be available in others.   This makes use
+mariadbconnector dialects and may also be available in others.   This makes use
 of either the "buffered=True/False" flag if available or by using a class such
 as ``MySQLdb.cursors.SSCursor`` or ``pymysql.cursors.SSCursor`` internally.
 
index 655e68cad2c05bc3f6301ca5b98f33257731530c..e66fb2986cdb5562e3a9bef85d41ac35885a973a 100644 (file)
@@ -21,7 +21,7 @@ class JSON(sqltypes.JSON):
 
     .. seealso::
 
-        :class:`_types.JSON` - main documenation for the generic
+        :class:`_types.JSON` - main documentation for the generic
         cross-platform JSON datatype.
 
     The :class:`.mysql.JSON` type supports persistence of JSON values
index 50b6e3c8508f0a677a2371c1dfec5b683b817259..86aaa94d94f2a41f4dfb1757d5ba0a159a568b90 100644 (file)
@@ -12,7 +12,7 @@ def generate_driver_url(url, driver, query_str):
 
     # NOTE: at the moment, tests are running mariadbconnector
     # against both mariadb and mysql backends.   if we want this to be
-    # limited, do the decisionmaking here to reject a "mysql+mariadbconnector"
+    # limited, do the decision making here to reject a "mysql+mariadbconnector"
     # URL.  Optionally also re-enable the module level
     # MySQLDialect_mariadbconnector.is_mysql flag as well, which must include
     # a unit and/or functional test.
index 2b8c9c5282e6e0daa4e98bc5c011ee55652011e4..b78034de27d43b2d24fa985a365866aeb149c766 100644 (file)
@@ -451,7 +451,7 @@ class MySQLTableDefinitionParser(object):
         # CONSTRAINT `CONSTRAINT_1` CHECK (`x` > 5)'
         # testing on MariaDB 10.2 shows that the CHECK constraint
         # is returned on a line by itself, so to match without worrying
-        # about parenthesis in the expresion we go to the end of the line
+        # about parenthesis in the expression we go to the end of the line
         self._re_ck_constraint = _re_compile(
             r"  "
             r"CONSTRAINT +"
index 4754beebeb8a35efda0672c720b82e1d9322a59d..6c381a2eca8dbab646720a1bd1c76841c939a04f 100644 (file)
@@ -2010,7 +2010,7 @@ class OracleDialect(default.DefaultDialect):
 
     def _parse_identity_options(self, identity_options, default_on_nul):
         # identity_options is a string that starts with 'ALWAYS,' or
-        # 'BY DEFAULT,' and contues with
+        # 'BY DEFAULT,' and continues with
         # START WITH: 1, INCREMENT BY: 1, MAX_VALUE: 123, MIN_VALUE: 1,
         # CYCLE_FLAG: N, CACHE_SIZE: 1, ORDER_FLAG: N, SCALE_FLAG: N,
         # EXTEND_FLAG: N, SESSION_FLAG: N, KEEP_VALUE: N
index b8b4df760c3ce3f16b91f65ec0bbd64582522517..df00e071f4c626f9e5b6810b99ffdc5370373ae8 100644 (file)
@@ -53,7 +53,7 @@ and converted to the correct symbol::
    :paramref:`_sa.create_engine.connect_args` parameter also accepts all
    cx_Oracle DBAPI connect arguments.
 
-To pass arguments directly to ``.connect()`` wihtout using the query
+To pass arguments directly to ``.connect()`` without using the query
 string, use the :paramref:`_sa.create_engine.connect_args` dictionary.
 Any cx_Oracle parameter value and/or constant may be passed, such as::
 
@@ -334,7 +334,7 @@ disable this coercion to decimal for performance reasons, pass the flag
     engine = create_engine("oracle+cx_oracle://dsn", coerce_to_decimal=False)
 
 The ``coerce_to_decimal`` flag only impacts the results of plain string
-SQL staements that are not otherwise associated with a :class:`.Numeric`
+SQL statements that are not otherwise associated with a :class:`.Numeric`
 SQLAlchemy type (or a subclass of such).
 
 .. versionchanged:: 1.2  The numeric handling system for cx_Oracle has been
index fd258bc5a201337ce9588fee6d825b991ac96050..08d7cd9e5821e28ddc5a4000f59090ae153c36cb 100644 (file)
@@ -234,7 +234,7 @@ that will be implicitly referred towards when a particular table or other
 object is referenced in a SQL statement.  As detailed in the next section
 :ref:`postgresql_schema_reflection`, SQLAlchemy is generally organized around
 the concept of keeping this variable at its default value of ``public``,
-however, in order to have it set to any arbirary name or names when connections
+however, in order to have it set to any arbitrary name or names when connections
 are used automatically, the "SET SESSION search_path" command may be invoked
 for all connections in a pool using the following event handler, as discussed
 at :ref:`schema_set_default_connections`::
@@ -255,7 +255,7 @@ at :ref:`schema_set_default_connections`::
 
 The reason the recipe is complicated by use of the ``.autocommit`` DBAPI
 attribute is so that when the ``SET SESSION search_path`` directive is invoked,
-it is invoked outside of the scope of any tranasction and therefore will not
+it is invoked outside of the scope of any transaction and therefore will not
 be reverted when the DBAPI connection has a rollback.
 
 .. seealso::
@@ -1189,7 +1189,7 @@ Using JSON/JSONB with ARRAY
 ^^^^^^^^^^^^^^^^^^^^^^^^^^^
 
 Similar to using ENUM, prior to SQLAlchemy 1.3.17, for an ARRAY of JSON/JSONB
-we need to render the appropriate CAST.   Current psycopg2 drivers accomodate
+we need to render the appropriate CAST.   Current psycopg2 drivers accommodate
 the result set correctly without any special steps.
 
 .. versionchanged:: 1.3.17 The combination of JSON/JSONB and ARRAY is now
@@ -2262,7 +2262,7 @@ class PGCompiler(compiler.SQLCompiler):
     def fetch_clause(self, select, **kw):
         # pg requires parens for non literal clauses. It's also required for
         # bind parameters if a ::type casts is used by the driver (asyncpg),
-        # so it's easies to just always add it
+        # so it's easiest to just always add it
         text = ""
         if select._offset_clause is not None:
             text += "\n OFFSET (%s) ROWS" % self.process(
index 908a0b6753b2ae4c24354792ef16721ae8cf2bdb..1bd1e5258d91f49ec81d9a2c666234a12247a043 100644 (file)
@@ -87,7 +87,7 @@ class aggregate_order_by(expression.ColumnElement):
 class ExcludeConstraint(ColumnCollectionConstraint):
     """A table-level EXCLUDE constraint.
 
-    Defines an EXCLUDE constraint as described in the `postgres
+    Defines an EXCLUDE constraint as described in the `PostgreSQL
     documentation`__.
 
     __ http://www.postgresql.org/docs/9.0/static/sql-createtable.html#SQL-CREATETABLE-EXCLUDE
index a5dfa40d6b4efc1a1192351d91914733747f7359..1b165630c265fdd475056802e8268cf7b73928ca 100644 (file)
@@ -107,7 +107,7 @@ class JSON(sqltypes.JSON):
 
     .. seealso::
 
-        :class:`_types.JSON` - main documenation for the generic
+        :class:`_types.JSON` - main documentation for the generic
         cross-platform JSON datatype.
 
     The operators provided by the PostgreSQL version of :class:`_types.JSON`
index c8fc717eec3bc51724b6bf150bda348d88154443..b1d27c6faafeaab732210307e9a402c7229ad6fd 100644 (file)
@@ -74,8 +74,8 @@ using ``host`` as an additional keyword argument::
 
 .. _psycopg2_multi_host:
 
-Specfiying multiple fallback hosts
-------------------------------------
+Specifiying multiple fallback hosts
+-----------------------------------
 
 psycopg2 supports multiple connection points in the connection string.
 When the ``host`` parameter is used multiple times in the query section of
index 1f6f75f6de08a98c696da82f65de6266de2e3bde..ab44fa59080ea02269054091da1e1707b4f94c0f 100644 (file)
@@ -13,7 +13,7 @@ __all__ = ("INT4RANGE", "INT8RANGE", "NUMRANGE")
 class RangeOperators(object):
     """
     This mixin provides functionality for the Range Operators
-    listed in Table 9-44 of the `postgres documentation`__ for Range
+    listed in Table 9-44 of the `PostgreSQL documentation`__ for Range
     Functions and Operators. It is used by all the range types
     provided in the ``postgres`` dialect and can likely be used for
     any range types you create yourself.
@@ -21,7 +21,7 @@ class RangeOperators(object):
     __ http://www.postgresql.org/docs/devel/static/functions-range.html
 
     No extra support is provided for the Range Functions listed in
-    Table 9-45 of the postgres documentation. For these, the normal
+    Table 9-45 of the PostgreSQL documentation. For these, the normal
     :func:`~sqlalchemy.sql.expression.func` object should be used.
 
     """
@@ -94,7 +94,7 @@ class RangeOperators(object):
         def __add__(self, other):
             """Range expression. Returns the union of the two ranges.
             Will raise an exception if the resulting range is not
-            contigous.
+            contiguous.
             """
             return self.expr.op("+")(other)
 
index a4c25e7640722358165a552e2fd7be217b05026c..ded1ce2a8ad777da2c8934a54b4eb2b4f6ed042a 100644 (file)
@@ -2132,7 +2132,7 @@ class SQLiteDialect(default.DefaultDialect):
         return colspec
 
     def _resolve_type_affinity(self, type_):
-        """Return a data type from a reflected column, using affinity tules.
+        """Return a data type from a reflected column, using affinity rules.
 
         SQLite's goal for universal compatibility introduces some complexity
         during reflection, as a column's defined type might not actually be a
@@ -2143,7 +2143,7 @@ class SQLiteDialect(default.DefaultDialect):
         listed in http://www.sqlite.org/datatype3.html section 2.1.
 
         This method allows SQLAlchemy to support that algorithm, while still
-        providing access to smarter reflection utilities by regcognizing
+        providing access to smarter reflection utilities by recognizing
         column definitions that SQLite only supports through affinity (like
         DATE and DOUBLE).
 
@@ -2224,7 +2224,7 @@ class SQLiteDialect(default.DefaultDialect):
                 referred_pk = self.get_pk_constraint(
                     connection, rtbl, schema=schema, **kw
                 )
-                # note that if table doesnt exist, we still get back a record,
+                # note that if table doesn't exist, we still get back a record,
                 # just it has no columns in it
                 referred_columns = referred_pk["constrained_columns"]
             else:
index fadec3ce3b4b01ea16c497aa07f963a7dff048d7..614f95405ff0bcd26ca8e4289a2448edc3af3570 100644 (file)
@@ -14,7 +14,7 @@ class JSON(sqltypes.JSON):
 
     .. seealso::
 
-        :class:`_types.JSON` - main documenation for the generic
+        :class:`_types.JSON` - main documentation for the generic
         cross-platform JSON datatype.
 
     The :class:`_sqlite.JSON` type supports persistence of JSON values
index 8636b751903863f69ed33391b988a1a8bd8c365f..c940faf38863ff5e87002cb6f54f9b17d8e5aa7a 100644 (file)
@@ -65,7 +65,7 @@ Modern versions of SQLite support an alternative system of connecting using a
 that additional driver-level arguments can be passed including options such as
 "read only".   The Python sqlite3 driver supports this mode under modern Python
 3 versions.   The SQLAlchemy pysqlite driver supports this mode of use by
-specifing "uri=true" in the URL query string.  The SQLite-level "URI" is kept
+specifying "uri=true" in the URL query string.  The SQLite-level "URI" is kept
 as the "database" portion of the SQLAlchemy url (that is, following a slash)::
 
     e = create_engine("sqlite:///file:path/to/database?mode=ro&uri=true")
index b5e23a4c28587c4f550e28749ef0d8c855779ed7..4eb8a1d8d6698ac8f5a7b2f297f4e134f998f944 100644 (file)
@@ -1156,7 +1156,7 @@ class CreateEnginePlugin(object):
 
             The :class:`_engine.URL` object is now immutable, so a
             :class:`_engine.CreateEnginePlugin` that needs to alter the
-            :class:`_engine.URL` object should impliement the
+            :class:`_engine.URL` object should implement the
             :meth:`_engine.CreateEnginePlugin.update_url` method.
 
         :param kwargs: The keyword arguments passed to
index cc3877e05037969fcf3e6355a6d862fb9e001675..10dfaa904e53ce84001ab10b2e5a1286d704aad5 100644 (file)
@@ -1096,7 +1096,7 @@ class Result(_WithKeys, ResultInternal):
         # type: () -> Any
         """Return exactly one scalar result or raise an exception.
 
-        This is equvalent to calling :meth:`.Result.scalars` and then
+        This is equivalent to calling :meth:`.Result.scalars` and then
         :meth:`.Result.one`.
 
         .. seealso::
@@ -1112,7 +1112,7 @@ class Result(_WithKeys, ResultInternal):
         # type: () -> Optional[Any]
         """Return exactly one or no scalar result.
 
-        This is equvalent to calling :meth:`.Result.scalars` and then
+        This is equivalent to calling :meth:`.Result.scalars` and then
         :meth:`.Result.one_or_none`.
 
         .. seealso::
@@ -1528,7 +1528,7 @@ class FrozenResult(object):
     :meth:`_engine.Result.freeze` method of any :class:`_engine.Result`
     object.
 
-    A new iterable :class:`.Result` object is generatged from a fixed
+    A new iterable :class:`.Result` object is generated from a fixed
     set of data each time the :class:`.FrozenResult` is invoked as
     a callable::
 
@@ -1709,7 +1709,7 @@ class MergedResult(IteratorResult):
         self._unique_filter_state = results[0]._unique_filter_state
         self._yield_per = results[0]._yield_per
 
-        # going to try someting w/ this in next rev
+        # going to try something w/ this in next rev
         self._source_supports_scalars = results[0]._source_supports_scalars
 
         self._attributes = self._attributes.merge_with(
index 9c7e0420fb46d63cc5cdd94312d9ecab66bb0477..915226b8cf0e474049308a03de146a076fc0fe5d 100644 (file)
@@ -225,7 +225,7 @@ class AsyncResult(AsyncCommon):
         # type: () -> Any
         """Return exactly one scalar result or raise an exception.
 
-        This is equvalent to calling :meth:`_asyncio.AsyncResult.scalars` and
+        This is equivalent to calling :meth:`_asyncio.AsyncResult.scalars` and
         then :meth:`_asyncio.AsyncResult.one`.
 
         .. seealso::
@@ -241,7 +241,7 @@ class AsyncResult(AsyncCommon):
         # type: () -> Optional[Any]
         """Return exactly one or no scalar result.
 
-        This is equvalent to calling :meth:`_asyncio.AsyncResult.scalars` and
+        This is equivalent to calling :meth:`_asyncio.AsyncResult.scalars` and
         then :meth:`_asyncio.AsyncResult.one_or_none`.
 
         .. seealso::
index a2e295280663135af1bea7975cef1b23f6166742..5c6356d8b1360ce0a89093476553e2897501b424 100644 (file)
@@ -409,7 +409,7 @@ class DeferredReflection(object):
                                 ),
                             )
 
-                            # contoversy!  do we resolve it here? or leave
+                            # controversy!  do we resolve it here? or leave
                             # it deferred?   I think doing it here is necessary
                             # so the connection does not leak.
                             rel.secondary = rel.secondary()
index 89d18bcac071dc494576751119ffd2af728dbf6d..e6983675bd0189b13651d6fb62bf4437774afa09 100644 (file)
@@ -291,7 +291,7 @@ def declarative_base(
 
         Base = declarative_base()
 
-    Is equvialent to::
+    Is equivalent to::
 
         from sqlalchemy.orm import registry
 
@@ -612,7 +612,7 @@ class registry(object):
         """Map a class declaratively.
 
         In this form of mapping, the class is scanned for mapping information,
-        including for columns to be associaed with a table, and/or an
+        including for columns to be associated with a table, and/or an
         actual table object.
 
         Returns the :class:`_orm.Mapper` object.
index 3a85a2d7f149ba3a779cfebdbdca4c724950872f..32c627b00488c41f1b18ed713e933b02869502df 100644 (file)
@@ -1328,7 +1328,7 @@ def load_scalar_attributes(mapper, state, attribute_names, passive):
     # in the case of inheritance, particularly concrete and abstract
     # concrete inheritance, the class manager might have some keys
     # of attributes on the superclass that we didn't actually map.
-    # These could be mapped as "concrete, dont load" or could be completely
+    # These could be mapped as "concrete, don't load" or could be completely
     # excluded from the mapping and we know nothing about them.  Filter them
     # here to prevent them from coming through.
     if attribute_names:
index 9ac0c85c64b71631cd5323ffd036e0e2554c794f..bdaf4c92190cbcdae289aef6a55c73bee0a5df19 100644 (file)
@@ -154,7 +154,7 @@ class Mapper(
         legacy_is_orphan=False,
         _compiled_cache_size=100,
     ):
-        r"""Direct consructor for a new :class:`_orm.Mapper` object.
+        r"""Direct constructor for a new :class:`_orm.Mapper` object.
 
         The :func:`_orm.mapper` function is normally invoked through the
         use of the :class:`_orm.registry` object through either the
index b57963eb3f3d11be09d581dcf4d219c714cd7c8f..9fffb6cacf0b086ca63870ced03a4538dee5b7af 100644 (file)
@@ -1982,7 +1982,7 @@ class BulkUDCompileState(CompileState):
             and eval_condition(state.obj())
             and (
                 update_options._refresh_identity_token is None
-                # TODO: coverage for the case where horiziontal sharding
+                # TODO: coverage for the case where horizontal sharding
                 # invokes an update() or delete() given an explicit identity
                 # token up front
                 or state.identity_token
index 5dd2a8a214a2cb46c368a6eba368ee1a6e3452d3..5b0a78664f2f4381235d8b012baa0d82c3ff2e14 100644 (file)
@@ -96,7 +96,7 @@ class Query(
     :meth:`_query.Query.with_session`
     method.
 
-    For a full walkthrough of :class:`_query.Query` usage, see the
+    For a full walk through of :class:`_query.Query` usage, see the
     :ref:`ormtutorial_toplevel`.
 
     """
@@ -771,9 +771,9 @@ class Query(
         rows (which are most).
 
         As of SQLAlchemy 1.4, the :meth:`_orm.Query.yield_per` method is
-        equvalent to using the ``yield_per`` execution option at the ORM level.
-        See the section :ref:`orm_queryguide_yield_per` for further background
-        on this option.
+        equivalent to using the ``yield_per`` execution option at the ORM
+        level. See the section :ref:`orm_queryguide_yield_per` for further
+        background on this option.
 
         """
         self.load_options += {"_yield_per": count}
@@ -936,7 +936,7 @@ class Query(
         """Return a Query with a specific 'autoflush' setting.
 
         As of SQLAlchemy 1.4, the :meth:`_orm.Query.autoflush` method
-        is equvalent to using the ``autoflush`` execution option at the
+        is equivalent to using the ``autoflush`` execution option at the
         ORM level. See the section :ref:`orm_queryguide_autoflush` for
         further background on this option.
 
@@ -950,9 +950,9 @@ class Query(
         as they are loaded, or reused from the current :class:`.Session`.
 
         As of SQLAlchemy 1.4, the :meth:`_orm.Query.populate_existing` method
-        is equvalent to using the ``populate_existing`` execution option at the
-        ORM level. See the section :ref:`orm_queryguide_populate_existing` for
-        further background on this option.
+        is equivalent to using the ``populate_existing`` execution option at
+        the ORM level. See the section :ref:`orm_queryguide_populate_existing`
+        for further background on this option.
 
         """
         self.load_options += {"_populate_existing": True}
@@ -1135,7 +1135,7 @@ class Query(
         **automatic aliasing** to the entities inside the subquery, when
         they are referenced on the outside.  Above, if we continue to
         refer to the ``User`` entity without any additional aliasing applied
-        to it, those references wil be in terms of the subquery::
+        to it, those references will be in terms of the subquery::
 
             q = session.query(User).filter(User.name.like('e%')).\
                 limit(5).from_self().\
@@ -1301,7 +1301,7 @@ class Query(
         # this enables clause adaptation for non-ORM
         # expressions.
         # legacy.  see test/orm/test_froms.py for various
-        # "oldstyle" tests that rely on this and the correspoinding
+        # "oldstyle" tests that rely on this and the corresponding
         # "newtyle" that do not.
         self._compile_options += {"_orm_only_from_obj_alias": False}
 
index 550ff3833c553625ff15bf2245935bb1291ac98e..41c3a5e53cc5c72156a9e390ac36a9ed5480a525 100644 (file)
@@ -3650,7 +3650,7 @@ class JoinCondition(object):
 
 
 class _ColInAnnotations(object):
-    """Seralizable object that tests for a name in c._annotations."""
+    """Serializable object that tests for a name in c._annotations."""
 
     __slots__ = ("name",)
 
index 8a7a64f78c65c565f2a2d073702e609840ce6f67..d78c83b086c35837c37ba98eab2a6a21f89e5b88 100644 (file)
@@ -413,7 +413,7 @@ class ORMExecuteState(util.MemoizedSlots):
 
         Handlers will very likely not want to add any options to queries
         when such an operation is occurring, as loader options are already
-        capable of being propigated to relationship loaders and should
+        capable of being propagated to relationship loaders and should
         be already present.
 
         .. seealso::
@@ -978,7 +978,7 @@ class Session(_SessionClassMethods):
         :param autocommit:
           Defaults to ``False``. When ``True``, the
           :class:`.Session` does not automatically begin transactions for
-          individual statement exections, will acquire connections from the
+          individual statement executions, will acquire connections from the
           engine on an as-needed basis, releasing to the connection pool
           after each statement. Flushes will begin and commit (or possibly
           rollback) their own transaction if no transaction is present.
index b29c9cc660100d2b6d04e4796640179623d8b78d..23b5052a9db9d4dbfd2a7d93633546e35424f249 100644 (file)
@@ -306,7 +306,7 @@ def _shallow_annotate(element, annotations):
     """Annotate the given ClauseElement and copy its internals so that
     internal objects refer to the new annotated object.
 
-    Basically used to apply a "dont traverse" annotation to a
+    Basically used to apply a "don't traverse" annotation to a
     selectable, without digging throughout the whole
     structure wasting time.
     """
index 220bbb115b7df4f3f532e42f7c4fa697d4ed54c4..fe9455fb96f3cc88ca4340fd86c008a088d2a925 100644 (file)
@@ -543,7 +543,7 @@ class Generative(HasMemoized):
 
 class InPlaceGenerative(HasMemoized):
     """Provide a method-chaining pattern in conjunction with the
-    @_generative decorator taht mutates in place."""
+    @_generative decorator that mutates in place."""
 
     def _generate(self):
         skip = self._memoized_keys
@@ -653,7 +653,7 @@ class Options(util.with_metaclass(_MetaOptions)):
         d = other._state_dict()
 
         # only support a merge with another object of our class
-        # and which does not have attrs that we dont.   otherwise
+        # and which does not have attrs that we don't.   otherwise
         # we risk having state that might not be part of our cache
         # key strategy
 
index ef7db0bbe56a0e62a0fa40dc26a393c1e299c928..aabc257eb5ebd74896557c227473149c4d2932ba 100644 (file)
@@ -711,7 +711,7 @@ class SQLCompiler(Compiled):
          expect that they are to be invoked in an "executemany" style,
          which may impact how the statement will be expected to return the
          values of defaults and autoincrement / sequences and similar.
-         Depending on the backend and driver in use, support for retreiving
+         Depending on the backend and driver in use, support for retrieving
          these values may be disabled which means SQL expressions may
          be rendered inline, RETURNING may not be rendered, etc.
 
@@ -4684,7 +4684,7 @@ class IdentifierPreparer(object):
         return self.quote(schema)
 
     def quote(self, ident, force=None):
-        """Conditionally quote an identfier.
+        """Conditionally quote an identifier.
 
         The identifier is quoted if it is a reserved word, contains
         quote-necessary characters, or is an instance of
index f67e76181d307f132f22b791db6a74053597ba72..8b4950aa3a404974649727dd80240ba47457df14 100644 (file)
@@ -400,7 +400,7 @@ def _scan_cols(
                     # if we have to invoke a server-side function, we need
                     # to pre-execute it.   or if this is a straight
                     # autoincrement column and the dialect supports it
-                    # we can use curosr.lastrowid.
+                    # we can use cursor.lastrowid.
 
                     _append_param_insert_pk_no_returning(
                         compiler, stmt, c, values, kw
@@ -607,7 +607,7 @@ def _append_param_insert_pk_no_returning(compiler, stmt, c, values, kw):
                 )
                 or
                 # column has no default on it, but dialect can run the
-                # "autoincrement" mechanism explictly, e.g. PostrgreSQL
+                # "autoincrement" mechanism explicitly, e.g. PostgreSQL
                 # SERIAL we know the sequence name
                 (
                     c.default is None
index 5ea3526eaf85883da45fba259fee1806f666080f..a9f21cd5f8405a2b22238874b083b2078d620c0e 100644 (file)
@@ -2242,7 +2242,7 @@ class BooleanClauseList(ClauseList, ColumnElement):
                     lcc = 1
                 else:
                     against = operator
-                    # techincally this would be len(convert_clauses) + 1
+                    # technically this would be len(convert_clauses) + 1
                     # however this only needs to indicate "greater than one"
                     lcc = 2
                 convert_clauses.append(clause)
@@ -2550,7 +2550,7 @@ class Tuple(ClauseList, ColumnElement):
             )
 
     def self_group(self, against=None):
-        # Tuple is parenthsized by definition.
+        # Tuple is parenthesized by definition.
         return self
 
 
index 92c3ac9f73bd99f733839259957674cf9a25801a..2ffed27888412d95d6d707d91241f4a475d90926 100644 (file)
@@ -1001,7 +1001,7 @@ class AnalyzedFunction(object):
             # additionally, each PyWrapper will log that it did in fact
             # create a parameter, otherwise, it's some kind of Python
             # object in the closure and we want to track that, to make
-            # sure it doesn't change to somehting else, or if it does,
+            # sure it doesn't change to something else, or if it does,
             # that we create a different tracked function with that
             # variable.
             self.expr = lambda_element._invoke_user_fn(tracker_instrumented_fn)
index a7dfa9b6d257f4a4f7be35f6e6c2b2e2befce901..60f03195cda8d9cedcf514a22297fe043088ac53 100644 (file)
@@ -542,7 +542,7 @@ class ColumnOperators(Operators):
 
           In this calling form, the expression renders an "empty set"
           expression.  These expressions are tailored to individual backends
-          and are generaly trying to get an empty SELECT statement as a
+          and are generally trying to get an empty SELECT statement as a
           subquery.  Such as on SQLite, the expression is::
 
             WHERE col IN (SELECT 1 FROM (SELECT 1) WHERE 1!=1)
index 8e478583f6f5ae58e6821a1d66c37c000f276568..7deb7fd82618e85ba268f1c79e97d0deb5c5b9c2 100644 (file)
@@ -88,7 +88,7 @@ def subquery(alias, *args, **kwargs):
 
 
 class ReturnsRows(roles.ReturnsRowsRole, ClauseElement):
-    """The basemost class for Core constructs that have some concept of
+    """The base-most class for Core constructs that have some concept of
     columns that can represent rows.
 
     While the SELECT statement and TABLE are the primary things we think
@@ -825,7 +825,7 @@ class FromClause(roles.AnonymizedFromClauseRole, Selectable):
 
         this is used to "ping" a derived selectable to add a new column
         to its .c. collection when a Column has been added to one of the
-        Table objects it ultimtely derives from.
+        Table objects it ultimately derives from.
 
         If the given selectable hasn't populated its .c. collection yet,
         it should at least pass on the message to the contained selectables,
@@ -4414,7 +4414,7 @@ class Select(
         .. versionadded:: 1.4 - The :func:`_sql.select` function now accepts
            column arguments positionally.   The top-level :func:`_sql.select`
            function will automatically use the 1.x or 2.x style API based on
-           the incoming argumnents; using :func:`_future.select` from the
+           the incoming arguments; using :func:`_future.select` from the
            ``sqlalchemy.future`` module will enforce that only the 2.x style
            constructor is used.
 
@@ -4587,7 +4587,7 @@ class Select(
 
             stmt = select(user_table).join(address_table, user_table.c.id == address_table.c.user_id)
 
-        The above statement generages SQL similar to::
+        The above statement generates SQL similar to::
 
             SELECT user.id, user.name FROM user JOIN address ON user.id = address.user_id
 
@@ -4672,7 +4672,7 @@ class Select(
                 user_table, address_table, user_table.c.id == address_table.c.user_id
             )
 
-        The above statement generages SQL similar to::
+        The above statement generates SQL similar to::
 
             SELECT user.id, user.name, address.id, address.email, address.user_id
             FROM user JOIN address ON user.id = address.user_id
@@ -4966,7 +4966,7 @@ class Select(
 
          .. versionchanged:: 1.4 the :meth:`_sql.Select.with_only_columns`
             method accepts the list of column expressions positionally;
-            passing the expressions as a list is deprecateed.
+            passing the expressions as a list is deprecated.
 
         """
 
@@ -5271,7 +5271,7 @@ class Select(
 
         # when use_labels is on:
         # in all cases == if we see the same label name, use _label_anon_label
-        # for subsequent occurences of that label
+        # for subsequent occurrences of that label
         #
         # anon_for_dupe_key == if we see the same column object multiple
         # times under a particular name, whether it's the _label name or the
index df805c5574ce4ea9231a6a794d366b6bbf31a1d7..5f35de5f002add73fb2c8d4fcf9ed5356a9e2036 100644 (file)
@@ -504,7 +504,7 @@ class _repr_row(_repr_base):
 class _repr_params(_repr_base):
     """Provide a string view of bound parameters.
 
-    Truncates display to a given numnber of 'multi' parameter sets,
+    Truncates display to a given number of 'multi' parameter sets,
     as well as long values to a given number of characters.
 
     """
@@ -852,7 +852,7 @@ class ClauseAdapter(visitors.ReplacingExternalTraversal):
             ):
                 # we are a SELECT statement and not derived from an alias of a
                 # table (which nonetheless may be a table our SELECT derives
-                # from), so return the alias to prevent futher traversal
+                # from), so return the alias to prevent further traversal
                 # or
                 # we are an alias of a table and we are not derived from an
                 # alias of a table (which nonetheless may be the same table
index 3999c57938f570118e031e9aa7dff586c8cb905a..e5dda7d3e402ef71cf9428c2cbd58be4c50465a2 100644 (file)
@@ -496,7 +496,7 @@ class SuiteRequirements(Requirements):
 
     @property
     def no_sequences(self):
-        """the oppopsite of "sequences", DB does not support sequences at
+        """the opposite of "sequences", DB does not support sequences at
         all."""
 
         return exclusions.NotPredicate(self.sequences)
index 8edd057ef997b29d7a996fcd81824a7b668c629d..94f4705d88307dea6133c4e89fced2878da5034a 100644 (file)
@@ -35,7 +35,7 @@ class _AsyncIoGreenlet(greenlet.greenlet):
 def await_only(awaitable: Coroutine) -> Any:
     """Awaits an async function in a sync method.
 
-    The sync method must be insice a :func:`greenlet_spawn` context.
+    The sync method must be inside a :func:`greenlet_spawn` context.
     :func:`await_` calls cannot be nested.
 
     :param awaitable: The coroutine to call.
@@ -59,7 +59,7 @@ def await_only(awaitable: Coroutine) -> Any:
 def await_fallback(awaitable: Coroutine) -> Any:
     """Awaits an async function in a sync method.
 
-    The sync method must be insice a :func:`greenlet_spawn` context.
+    The sync method must be inside a :func:`greenlet_spawn` context.
     :func:`await_` calls cannot be nested.
 
     :param awaitable: The coroutine to call.
index 1eed2c3afeb9ea73711e8ba863d9e4f4f6d726d4..0cbfa136654d443aa4a61895c9e76538fbfd52f0 100644 (file)
@@ -362,7 +362,7 @@ if py3k:
         Instead of introducing all the object-creation overhead and having
         to reinvent from scratch, just copy their compatibility routine.
 
-        Utimately we would need to rewrite our "decorator" routine completely
+        Ultimately we would need to rewrite our "decorator" routine completely
         which is not really worth it right now, until all Python 2.x support
         is dropped.
 
index f6d44f708314114f480fd607f44142cb3b22a900..457d2875de84c45c99be49063552337b1b7804d0 100644 (file)
@@ -533,7 +533,7 @@ def format_argspec_plus(fn, grouped=True):
         )
 
     elif spec[1]:
-        # im not sure what this is
+        # I'm not sure what this is
         self_arg = "%s[0]" % spec[1]
 
         apply_pos_proxied = apply_pos
@@ -1844,7 +1844,7 @@ def inject_param_text(doctext, inject_params):
                     indent = " " * len(m.group(1)) + " "
 
                     # but if the next line has text, use that line's
-                    # indentntation
+                    # indentation
                     if doclines:
                         m2 = re.match(r"(\s+)\S", doclines[0])
                         if m2:
index 30e388248066f4404d4d52eb6cacc9cba7e59fb7..b1ff8f64e888d08dbc485f49f6cc3e370417ad76 100644 (file)
@@ -224,7 +224,7 @@ class AsyncAdaptedQueue:
         # Delay creation of the queue until it is first used, to avoid
         # binding it to a possibly wrong event loop.
         # By delaying the creation of the pool we accommodate the common
-        # usage pattern of instanciating the engine at module level, where a
+        # usage pattern of instantiating the engine at module level, where a
         # different event loop is in present compared to when the application
         # is actually run.