]> git.ipfire.org Git - thirdparty/sqlalchemy/sqlalchemy.git/commitdiff
Fix many typos throughout the codebase
authorAlex Gaynor <alex.gaynor@gmail.com>
Sat, 26 Apr 2014 20:13:13 +0000 (13:13 -0700)
committerAlex Gaynor <alex.gaynor@gmail.com>
Sat, 26 Apr 2014 20:13:13 +0000 (13:13 -0700)
Found using: https://github.com/intgr/topy

95 files changed:
doc/build/changelog/changelog_01.rst
doc/build/changelog/changelog_02.rst
doc/build/changelog/changelog_03.rst
doc/build/changelog/changelog_04.rst
doc/build/changelog/changelog_05.rst
doc/build/changelog/changelog_06.rst
doc/build/changelog/changelog_07.rst
doc/build/changelog/changelog_08.rst
doc/build/changelog/changelog_09.rst
doc/build/changelog/migration_04.rst
doc/build/changelog/migration_06.rst
doc/build/changelog/migration_08.rst
doc/build/changelog/migration_09.rst
doc/build/core/constraints.rst
doc/build/core/event.rst
doc/build/core/events.rst
doc/build/core/reflection.rst
doc/build/core/tutorial.rst
doc/build/core/types.rst
doc/build/faq.rst
doc/build/glossary.rst
doc/build/orm/events.rst
doc/build/orm/loading.rst
doc/build/orm/mapper_config.rst
doc/build/orm/session.rst
examples/sharding/attribute_shard.py
examples/versioned_rows/versioned_map.py
lib/sqlalchemy/dialects/firebird/kinterbasdb.py
lib/sqlalchemy/dialects/mysql/zxjdbc.py
lib/sqlalchemy/dialects/oracle/base.py
lib/sqlalchemy/dialects/oracle/cx_oracle.py
lib/sqlalchemy/dialects/postgresql/hstore.py
lib/sqlalchemy/dialects/postgresql/psycopg2.py
lib/sqlalchemy/dialects/sqlite/base.py
lib/sqlalchemy/engine/base.py
lib/sqlalchemy/engine/interfaces.py
lib/sqlalchemy/events.py
lib/sqlalchemy/ext/automap.py
lib/sqlalchemy/ext/declarative/__init__.py
lib/sqlalchemy/ext/orderinglist.py
lib/sqlalchemy/log.py
lib/sqlalchemy/orm/attributes.py
lib/sqlalchemy/orm/events.py
lib/sqlalchemy/orm/mapper.py
lib/sqlalchemy/orm/relationships.py
lib/sqlalchemy/orm/session.py
lib/sqlalchemy/orm/strategies.py
lib/sqlalchemy/orm/util.py
lib/sqlalchemy/schema.py
lib/sqlalchemy/sql/compiler.py
lib/sqlalchemy/sql/ddl.py
lib/sqlalchemy/sql/elements.py
lib/sqlalchemy/sql/schema.py
lib/sqlalchemy/sql/selectable.py
lib/sqlalchemy/sql/type_api.py
lib/sqlalchemy/sql/util.py
lib/sqlalchemy/testing/assertions.py
lib/sqlalchemy/testing/engines.py
lib/sqlalchemy/testing/entities.py
lib/sqlalchemy/testing/requirements.py
lib/sqlalchemy/types.py
lib/sqlalchemy/util/_collections.py
lib/sqlalchemy/util/langhelpers.py
test/aaa_profiling/test_memusage.py
test/aaa_profiling/test_pool.py
test/dialect/mssql/test_query.py
test/dialect/postgresql/test_dialect.py
test/dialect/postgresql/test_query.py
test/dialect/postgresql/test_types.py
test/engine/test_execute.py
test/engine/test_reconnect.py
test/ext/declarative/test_basic.py
test/ext/declarative/test_inheritance.py
test/orm/inheritance/test_basic.py
test/orm/test_assorted_eager.py
test/orm/test_attributes.py
test/orm/test_backref_mutations.py
test/orm/test_cycles.py
test/orm/test_deferred.py
test/orm/test_expire.py
test/orm/test_froms.py
test/orm/test_mapper.py
test/orm/test_merge.py
test/orm/test_naturalpks.py
test/orm/test_query.py
test/orm/test_session.py
test/orm/test_unitofwork.py
test/orm/test_versioning.py
test/sql/test_compiler.py
test/sql/test_functions.py
test/sql/test_generative.py
test/sql/test_metadata.py
test/sql/test_selectable.py
test/sql/test_text.py
test/sql/test_types.py

index 0f66f99e4537a54917e387d4818bac45f012a836..a8ce578f5c5f5e134e9b7714ae78a09a863dd119 100644 (file)
@@ -48,7 +48,7 @@
         :tags: 
         :tickets: 
 
-      types types types!  still werent working....have to use TypeDecorator again :(
+      types types types!  still weren't working....have to use TypeDecorator again :(
 
     .. change::
         :tags: 
         :tickets: 
 
       fixed attributes bug where if an object is committed, its lazy-loaded list got
-      blown away if it hadnt been loaded
+      blown away if it hadn't been loaded
 
     .. change::
         :tags: 
         :tags: 
         :tickets: 
 
-      two issues related to postgres, which doesnt want to give you the "lastrowid"
+      two issues related to postgres, which doesn't want to give you the "lastrowid"
       since oids are deprecated:
 
         * postgres database-side defaults that are on primary key cols *do* execute
-          explicitly beforehand, even though thats not the idea of a PassiveDefault.  this is
+          explicitly beforehand, even though that's not the idea of a PassiveDefault.  this is
           because sequences on columns get reflected as PassiveDefaults, but need to be explicitly
           executed on a primary key col so we know what we just inserted.
         * if you did add a row that has a bunch of database-side defaults on it,
index c3b91f1bdc184c7d2db68b8767f127960d953364..44b77b664934412fcf039c7b7194fc8bd1d8d0c2 100644 (file)
@@ -81,7 +81,7 @@
 
       unit-of-work does a better check for "orphaned" objects that are
       part of a "delete-orphan" cascade, for certain conditions where the
-      parent isnt available to cascade from.
+      parent isn't available to cascade from.
 
     .. change::
         :tags:
       so far will convert this to "TIME[STAMP] (WITH|WITHOUT) TIME ZONE",
       so that control over timezone presence is more controllable (psycopg2
       returns datetimes with tzinfo's if available, which can create confusion
-      against datetimes that dont).
+      against datetimes that don't).
 
     .. change::
         :tags:
       with the session, and the INSERT statements are then sorted within the
       mapper save_obj.  the INSERT ordering has basically been pushed all
       the way to the end of the flush cycle. that way the various sorts and
-      organizations occuring within UOWTask (particularly the circular task
-      sort) dont have to worry about maintaining order (which they werent anyway)
+      organizations occurring within UOWTask (particularly the circular task
+      sort) don't have to worry about maintaining order (which they weren't anyway)
 
     .. change::
         :tags:
         :tags:
         :tickets:
 
-      overhaul to MapperExtension calling scheme, wasnt working very well
+      overhaul to MapperExtension calling scheme, wasn't working very well
       previously
 
     .. change::
         :tags:
         :tickets:
 
-      select_table mappers *still* werent always compiling
+      select_table mappers *still* weren't always compiling
 
     .. change::
         :tags:
         :tickets: 206
 
       utterly remarkable:  added a single space between 'CREATE TABLE'
-      and '(<the rest of it>' since *thats how MySQL indicates a non-
+      and '(<the rest of it>' since *that's how MySQL indicates a non-
       reserved word tablename.....*
 
     .. change::
       of an attribute is no longer micromanaged with each change and is
       instead part of a "CommittedState" object created when the
       instance is first loaded.  HistoryArraySet is gone, the behavior of
-      list attributes is now more open ended (i.e. theyre not sets anymore).
+      list attributes is now more open ended (i.e. they're not sets anymore).
 
     .. change::
         :tags:
         :tickets:
 
       fix to transaction control, so that repeated rollback() calls
-      dont fail (was failing pretty badly when flush() would raise
+      don't fail (was failing pretty badly when flush() would raise
       an exception in a larger try/except transaction block)
 
     .. change::
         :tags:
         :tickets:
 
-      fixed bug where tables with schema names werent getting indexed in
+      fixed bug where tables with schema names weren't getting indexed in
       the MetaData object properly
 
     .. change::
         :tags:
         :tickets: 207
 
-      fixed bug where Column with redefined "key" property wasnt getting
+      fixed bug where Column with redefined "key" property wasn't getting
       type conversion happening in the ResultProxy
 
     .. change::
         :tickets:
 
       fixed old bug where if a many-to-many table mapped as "secondary"
-      had extra columns, delete operations didnt work
+      had extra columns, delete operations didn't work
 
     .. change::
         :tags:
         :tickets: 138
 
       added NonExistentTable exception thrown when reflecting a table
-      that doesnt exist
+      that doesn't exist
 
     .. change::
         :tags:
         :tags:
         :tickets:
 
-      placeholder dispose() method added to SingletonThreadPool, doesnt
+      placeholder dispose() method added to SingletonThreadPool, doesn't
       do anything yet
 
     .. change::
         :tickets:
 
       rollback() is automatically called when an exception is raised,
-      but only if theres no transaction in process (i.e. works more like
+      but only if there's no transaction in process (i.e. works more like
       autocommit).
 
     .. change::
 
       "oid" system has been totally moved into compile-time behavior;
       if they are used in an order_by where they are not available, the order_by
-      doesnt get compiled, fixes
+      doesn't get compiled, fixes
 
     .. change::
         :tags:
index 05e10e6649d007f572ae0bb70d83b16112c42c50..7c0a1af26bf8886898fa954082f85f493dad92a5 100644 (file)
@@ -25,7 +25,7 @@
         :tags: sql
         :tickets: 768
 
-      dont assume join criterion consists only of column objects
+      don't assume join criterion consists only of column objects
 
     .. change::
         :tags: sql
         :tags: sql
         :tickets: 
 
-      ForeignKey to a table in a schema thats not the default schema
+      ForeignKey to a table in a schema that's not the default schema
       requires the schema to be explicit; i.e. ForeignKey('alt_schema.users.id')
 
     .. change::
         :tags: sqlite
         :tickets: 603
 
-      string PK column inserts dont get overwritten with OID
+      string PK column inserts don't get overwritten with OID
 
     .. change::
         :tags: mssql
       parenthesis are applied to clauses via a new _Grouping
       construct. uses operator precedence to more intelligently apply
       parenthesis to clauses, provides cleaner nesting of clauses
-      (doesnt mutate clauses placed in other clauses, i.e. no 'parens'
+      (doesn't mutate clauses placed in other clauses, i.e. no 'parens'
       flag)
 
     .. change::
         :tags: sql
         :tickets: 578
 
-      removed "no group by's in a select thats part of a UNION"
+      removed "no group by's in a select that's part of a UNION"
       restriction
 
     .. change::
         :tags: orm
         :tickets: 
 
-      fixed bug in query.instances() that wouldnt handle more than
+      fixed bug in query.instances() that wouldn't handle more than
       on additional mapper or one additional column.
 
     .. change::
       means their lengths are dialect-dependent.  So on oracle a label
       that gets truncated to 30 chars will go out to 63 characters
       on postgres.  Also, the true labelname is always attached as the
-      accessor on the parent Selectable so theres no need to be aware
+      accessor on the parent Selectable so there's no need to be aware
       of the "truncated" label names.
 
     .. change::
         :tickets: 513
 
       the "mini" column labels generated when using subqueries, which
-      are to work around glitchy SQLite behavior that doesnt understand
+      are to work around glitchy SQLite behavior that doesn't understand
       "foo.id" as equivalent to "id", are now only generated in the case
       that those named columns are selected from (part of)
 
         :tickets: 
 
       mysql uses "DESCRIBE.<tablename>", catching exceptions
-      if table doesnt exist, in order to determine if a table exists.
+      if table doesn't exist, in order to determine if a table exists.
       this supports unicode table names as well as schema names. tested
       with MySQL5 but should work with 4.1 series as well. (#557)
 
       more fixes to polymorphic relations, involving proper lazy-clause
       generation on many-to-one relationships to polymorphic mappers. also fixes to detection of "direction", more specific
       targeting of columns that belong to the polymorphic union vs. those
-      that dont.
+      that don't.
 
     .. change::
         :tags: orm
 
       got binary working for any size input !  cx_oracle works fine,
       it was my fault as BINARY was being passed and not BLOB for
-      setinputsizes (also unit tests werent even setting input sizes).
+      setinputsizes (also unit tests weren't even setting input sizes).
 
     .. change::
         :tags: oracle
         :tags: orm, bugs
         :tickets: 
 
-      fix to deferred so that load operation doesnt mistakenly occur when only
+      fix to deferred so that load operation doesn't mistakenly occur when only
       PK col attributes are set
 
     .. change::
         :tickets: 
 
       type system slightly modified to support TypeDecorators that can be
-      overridden by the dialect (ok, thats not very clear, it allows the mssql
+      overridden by the dialect (ok, that's not very clear, it allows the mssql
       tweak below to be possible)
 
     .. change::
         :tickets: 420
 
       mysql is inconsistent with what kinds of quotes it uses in foreign keys
-      during a SHOW CREATE TABLE, reflection updated to accomodate for all three
+      during a SHOW CREATE TABLE, reflection updated to accommodate for all three
       styles
 
     .. change::
         :tags: orm
         :tickets: 407
 
-      fixed bug in mapper refresh/expire whereby eager loaders didnt properly
+      fixed bug in mapper refresh/expire whereby eager loaders didn't properly
       re-populate item lists
 
     .. change::
         :tickets: 
 
       MySQL detects errors 2006 (server has gone away) and 2014
-      (commands out of sync) and invalidates the connection on which it occured.
+      (commands out of sync) and invalidates the connection on which it occurred.
 
     .. change::
         :tags: 
         :tickets: 
 
       added onupdate and ondelete keyword arguments to ForeignKey; propagate
-      to underlying ForeignKeyConstraint if present.  (dont propagate in the
+      to underlying ForeignKeyConstraint if present.  (don't propagate in the
       other direction, however)
 
     .. change::
 
       fixed bug in circular dependency sorting at flush time; if object A
       contained a cyclical many-to-one relationship to object B, and object B
-      was just attached to object A, *but* object B itself wasnt changed,
+      was just attached to object A, *but* object B itself wasn't changed,
       the many-to-one synchronize of B's primary key attribute to A's foreign key
-      attribute wouldnt occur.
+      attribute wouldn't occur.
 
     .. change::
         :tags: orm
 
       a fair amount of cleanup to the schema package, removal of ambiguous
       methods, methods that are no longer needed.  slightly more constrained
-      useage, greater emphasis on explicitness
+      usage, greater emphasis on explicitness
 
     .. change::
         :tags: schema
         :tags: connections/pooling/execution
         :tickets: 
 
-      fixed bug where Connection wouldnt lose its Transaction
+      fixed bug where Connection wouldn't lose its Transaction
       after commit/rollback
 
     .. change::
       including the addition of a MutableType mixin which is implemented by
       PickleType.  unit-of-work now tracks the "dirty" list as an expression
       of all persistent objects where the attribute manager detects changes.
-      The basic issue thats fixed is detecting changes on PickleType
+      The basic issue that's fixed is detecting changes on PickleType
       objects, but also generalizes type handling and "modified" object
       checking to be more complete and extensible.
 
 
       implemented "version check" logic in Query/Mapper, used
       when version_id_col is in effect and query.with_lockmode()
-      is used to get() an instance thats already loaded
+      is used to get() an instance that's already loaded
 
     .. change::
         :tags: orm
index 61ea28c119e61331725a3d1207a821e4080dc4b6..1bd49871c1f0a22a3d347d44be193716cc44faf3 100644 (file)
           transaction directly to the parent of the transaction
           that could be rolled back to. Now it rolls back the next
           transaction up that can handle it, but sets the current
-          transaction to it's parent and inactivates the
+          transaction to its parent and inactivates the
           transactions in between. Inactive transactions can only
           be rolled back or closed, any other call results in an
           error.
           subtransactions.
       
         - unitofwork flush didn't close the failed transaction
-          when the session was not in a transaction and commiting
+          when the session was not in a transaction and committing
           the transaction failed.
 
     .. change::
 
       Better support for schemas in SQLite (linked in by ATTACH
       DATABASE ... AS name).  In some cases in the past, schema
-      names were ommitted from generated SQL for SQLite.  This is
+      names were omitted from generated SQL for SQLite.  This is
       no longer the case.
 
     .. change::
         :tags: 
         :tickets: 
 
-      The 'Smallinteger' compatiblity name (small i!) is no longer imported,
+      The 'Smallinteger' compatibility name (small i!) is no longer imported,
       but remains in schema.py for now.  SmallInteger (big I!) is still
       imported.
 
         :tickets: 643
 
       Class-level properties are now usable as query elements... no more
-      '.c.'!  "Class.c.propname" is now superceded by "Class.propname".  All
+      '.c.'!  "Class.c.propname" is now superseded by "Class.propname".  All
       clause operators are supported, as well as higher level operators such
       as Class.prop==<some instance> for scalar attributes,
       Class.prop.contains(<some instance>) and Class.prop.any(<some
       query.get() clauses, etc. and act as though they are regular single-column
       scalars... except they're not!  Use the function composite(cls, \*columns)
       inside of the mapper's "properties" dict, and instances of cls will be
-      created/mapped to a single attribute, comprised of the values correponding
+      created/mapped to a single attribute, comprised of the values corresponding
       to \*columns.
 
     .. change::
       Joined-table inheritance will now generate the primary key columns of all
       inherited classes against the root table of the join only.  This implies
       that each row in the root table is distinct to a single instance.  If for
-      some rare reason this is not desireable, explicit primary_key settings on
+      some rare reason this is not desirable, explicit primary_key settings on
       individual mappers will override it.
 
     .. change::
         :tickets: 
 
       Speed!  Clause compilation as well as the mechanics of SQL constructs have
-      been streamlined and simplified to a signficant degree, for a 20-30%
+      been streamlined and simplified to a significant degree, for a 20-30%
       improvement of the statement construction/compilation overhead of 0.3.
 
     .. change::
       case_sensitive=(True|False) setting removed from schema items, since
       checking this state added a lot of method call overhead and there was no
       decent reason to ever set it to False.  Table and column names which are
-      all lower case will be treated as case-insenstive (yes we adjust for
+      all lower case will be treated as case-insensitive (yes we adjust for
       Oracle's UPPERCASE style too).
 
     .. change::
 
       Very rudimental support for OUT parameters added; use sql.outparam(name,
       type) to set up an OUT parameter, just like bindparam(); after execution,
-      values are avaiable via result.out_parameters dictionary.
+      values are available via result.out_parameters dictionary.
index debcc29fd4c5d51a63453cab3ecf934403cf4a49..96a0fb19f9e93c54df23dba2aabb10e7ff5411d9 100644 (file)
@@ -51,7 +51,7 @@
       correspondence for cloned selectables which contain
       free-standing column expressions.   This bug is
       generally only noticeable when exercising newer
-      ORM behavior only availble in 0.6 via,
+      ORM behavior only available in 0.6 via,
       but is more correct at the SQL expression level
       as well.
 
         :tags: orm
         :tickets: 1501
 
-      Fixed recursion issue which occured if a mapped object's
+      Fixed recursion issue which occurred if a mapped object's
       `__len__()` or `__nonzero__()` method resulted in state
       changes.
 
       and secondaryjoin do.  For the extremely rare use case where
       the backref of a relation() has intentionally different
       "foreign_keys" configured, both sides now need to be
-      configured explicity (if they do in fact require this setting,
+      configured explicitly (if they do in fact require this setting,
       see the next note...).
 
     .. change::
         graph of mappers.
       
       - Cached a wasteful "table sort" operation that previously
-        occured multiple times per flush, also removing significant
+        occurred multiple times per flush, also removing significant
         method call count from flush().
       
       - Other redundant behaviors have been simplified in
       when determining "orphan" status - for a persistent object
       it only detects an in-python de-association event to establish
       the object as an "orphan".  Next, the good news: to support
-      one-to-one via a foreign key or assocation table, or to
+      one-to-one via a foreign key or association table, or to
       support one-to-many via an association table, a new flag
       single_parent=True may be set which indicates objects
       linked to the relation are only meant to have a single parent.
index 18d61019aacacd2c9f2031a3e4eecb40b5708274..67fd0f1e9d1787b3a769080cfe8dd99a787ab6d2 100644 (file)
 
       The "unicode warning" against non-unicode bind data
       is now raised only when the
-      Unicode type is used explictly; not when
+      Unicode type is used explicitly; not when
       convert_unicode=True is used on the engine
       or String type.
 
       A warning is now emitted if a mapper is created against a
       join or other single selectable that includes multiple
       columns with the same name in its .c. collection,
-      and those columns aren't explictly named as part of
+      and those columns aren't explicitly named as part of
       the same or separate attributes (or excluded).
       In 0.7 this warning will be an exception.   Note that
       this warning is not emitted when the combination occurs
 
       the _Label construct, i.e. the one that is produced
       whenever you say somecol.label(), now counts itself
-      in its "proxy_set" unioned with that of it's
+      in its "proxy_set" unioned with that of its
       contained column's proxy set, instead of
       directly returning that of the contained column.
       This allows column correspondence
         :tags: examples
         :tickets: 
 
-      The beaker_caching example has been reorgnized
+      The beaker_caching example has been reorganized
       such that the Session, cache manager,
       declarative_base are part of environment, and
       custom cache code is portable and now within
         :tags: orm
         :tickets: 
 
-      To accomodate the fact that there are now two kinds of eager
+      To accommodate the fact that there are now two kinds of eager
       loading available, the new names for eagerload() and
       eagerload_all() are joinedload() and joinedload_all().  The
       old names will remain as synonyms for the foreseeable future.
         :tags: postgresql
         :tickets: 997
 
-      the TIME and TIMESTAMP types are now availble from the
+      the TIME and TIMESTAMP types are now available from the
       postgresql dialect directly, which add the PG-specific
       argument 'precision' to both.   'precision' and
       'timezone' are correctly reflected for both TIME and
 
       Fixed bug in session.rollback() which involved not removing
       formerly "pending" objects from the session before
-      re-integrating "deleted" objects, typically occured with
+      re-integrating "deleted" objects, typically occurred with
       natural primary keys. If there was a primary key conflict
       between them, the attach of the deleted would fail
       internally. The formerly "pending" objects are now expunged
       the date/time/interval system created for Postgresql
       EXTRACT in has now been generalized into
       the type system.   The previous behavior which often
-      occured of an expression "column + literal" forcing
+      occurred of an expression "column + literal" forcing
       the type of "literal" to be the same as that of "column"
       will now usually not occur - the type of
       "literal" is first derived from the Python type of the
            postgresql://scott:tiger@localhost/test
            postgresql+pg8000://scott:tiger@localhost/test
       
-       The "postgres" name remains for backwards compatiblity
+       The "postgres" name remains for backwards compatibility
        in the following ways:
       
            - There is a "postgres.py" dummy dialect which
       a column of type TIMESTAMP now defaults to NULL if
       "nullable=False" is not passed to Column(), and no default
       is present. This is now consistent with all other types,
-      and in the case of TIMESTAMP explictly renders "NULL"
+      and in the case of TIMESTAMP explicitly renders "NULL"
       due to MySQL's "switching" of default nullability
       for TIMESTAMP columns.
 
index da89bbde3d9448474853219b9f67a8e10ca1e4ff..d6fe4af906cf0cfbaab423836163acd709d0afbc 100644 (file)
         :tickets: 2529
 
       Added gaerdbms import to mysql/__init__.py,
-      the absense of which was preventing the new
+      the absence of which was preventing the new
       GAE dialect from being loaded.
 
     .. change::
         :tickets:
 
       Streamlined the process by which a Select
-      determines what's in it's '.c' collection.
+      determines what's in its '.c' collection.
       Behaves identically, except that a
       raw ClauseList() passed to select([])
       (which is not a documented case anyway) will
         :tags: schema
         :tickets: 2109
 
-      The 'useexisting' flag on Table has been superceded
+      The 'useexisting' flag on Table has been superseded
       by a new pair of flags 'keep_existing' and
       'extend_existing'.   'extend_existing' is equivalent
       to 'useexisting' - the existing Table is returned,
         :tags: general
         :tickets: 1902
 
-      New event system, supercedes all extensions, listeners,
+      New event system, supersedes all extensions, listeners,
       etc.
 
     .. change::
         :tags: orm
         :tickets: 1903
 
-      Hybrid Attributes, implements/supercedes synonym()
+      Hybrid Attributes, implements/supersedes synonym()
 
     .. change::
         :tags: orm
         :tags: orm
         :tickets:
 
-      Mutation Event Extension, supercedes "mutable=True"
+      Mutation Event Extension, supersedes "mutable=True"
 
       .. seealso::
 
       execution_options() on Connection accepts
       "isolation_level" argument, sets transaction isolation
       level for that connection only until returned to the
-      connection pool, for thsoe backends which support it
+      connection pool, for those backends which support it
       (SQLite, Postgresql)
 
     .. change::
index cc16cd43542ba2efde629a373f620f20ac5d34c6..19f99bbdedcf91e09dff5bbce0d2f0959a175445 100644 (file)
         attempts when an existing connection attempt is blocking.  Previously,
         the production of new connections was serialized within the block
         that monitored overflow; the overflow counter is now altered within
-        it's own critical section outside of the connection process itself.
+        its own critical section outside of the connection process itself.
 
      .. change::
         :tags: bug, engine, pool
index 054e41efba5e37b9eb33aebd94f898a22b639ab6..f51244815f431e602f4488d24862c9b1bd488a13 100644 (file)
         that the cursor rowcount matches the number of primary keys that should
         have matched;  this behavior had been taken off in most cases
         (except when version_id is used) to support the unusual edge case of
-        self-referential ON DELETE CASCADE; to accomodate this, the message
+        self-referential ON DELETE CASCADE; to accommodate this, the message
         is now just a warning, not an exception, and the flag can be used
         to indicate a mapping that expects self-refererntial cascaded
         deletes of this nature.  See also :ticket:`2403` for background on the
         :tags: feature, orm
 
         The :class:`.exc.StatementError` or DBAPI-related subclass
-        now can accomodate additional information about the "reason" for
+        now can accommodate additional information about the "reason" for
         the exception; the :class:`.Session` now adds some detail to it
         when the exception occurs within an autoflush.  This approach
         is taken as opposed to combining :class:`.FlushError` with
         operations.  End user code which emulates the behavior of backrefs
         must now ensure that recursive event propagation schemes are halted,
         if the scheme does not use the backref handlers.   Using this new system,
-        backref handlers can now peform a
+        backref handlers can now perform a
         "two-hop" operation when an object is appended to a collection,
         associated with a new many-to-one, de-associated with the previous
         many-to-one, and then removed from a previous collection.   Before this
 
         The "auto-aliasing" behavior of the :meth:`.Query.select_from`
         method has been turned off.  The specific behavior is now
-        availble via a new method :meth:`.Query.select_entity_from`.
+        available via a new method :meth:`.Query.select_entity_from`.
         The auto-aliasing behavior here was never well documented and
         is generally not what's desired, as :meth:`.Query.select_from`
         has become more oriented towards controlling how a JOIN is
index cb53534af0033981ede240af6493e2309df148c2..068b002ad057480795733b86179dc3198e8c7eda 100644 (file)
@@ -305,7 +305,7 @@ So what happens when we say:
 
 Notice the nice clean alias names too.  The joining doesn't
 care if it's against the same immediate table or some other
-object which then cycles back to the beginining.  Any kind
+object which then cycles back to the beginning.  Any kind
 of chain of eager loads can cycle back onto itself when
 ``join_depth`` is specified.  When not present, eager
 loading automatically stops when it hits a cycle.
index 8a55c03739913d1c889e46cc55830e6e5a93675e..21eba3d8c292b33c6c8b5d344ea1833dd90b0937 100644 (file)
@@ -935,7 +935,7 @@ parent rows.
 
 To make room for the new subquery load feature, the existing
 ```eagerload()````/````eagerload_all()```` options are now
-superceded by ````joinedload()```` and
+superseded by ````joinedload()```` and
 ````joinedload_all()````.   The old names will hang around
 for the foreseeable future just like ````relation()```.
 
index 9f1715e28dfc9cef4f6343c0f6f73fbc17dd4d6c..ab43e22eea89ec88f600f5495ce5ef369a7ebcfe 100644 (file)
@@ -1176,7 +1176,7 @@ Prior to this change, the above would return::
 
 which is invalid SQL as "t1" is not referred to in any FROM clause.
 
-Now, in the absense of an enclosing SELECT, it returns::
+Now, in the absence of an enclosing SELECT, it returns::
 
     SELECT t1.x, t2.y FROM t1, t2
 
index 0697156545e3c53b1bd105619703a0ab3da9232e..72ef80c12e1528e910292efc5328df0b344be756 100644 (file)
@@ -1373,7 +1373,7 @@ End-user code which a. makes use of the :meth:`.AttributeEvents.set`,
 :meth:`.AttributeEvents.append`, or :meth:`.AttributeEvents.remove` events,
 and b. initiates further attribute modification operations as a result of these
 events may need to be modified to prevent recursive loops, as the attribute system
-no longer stops a chain of events from propagating endlessly in the absense of the backref
+no longer stops a chain of events from propagating endlessly in the absence of the backref
 event handlers.   Additionally, code which depends upon the value of the ``initiator``
 will need to be adjusted to the new API, and furthermore must be ready for the
 value of ``initiator`` to change from its original value within a string of
@@ -1605,7 +1605,7 @@ statements without needing to explicitly specify those types within every
 :func:`.bindparam` expression.
 
 The potentially backwards-compatible changes involve two unlikely
-scenarios.  Since the the bound parameter is
+scenarios.  Since the bound parameter is
 **cloned**, users should not be relying upon making in-place changes to a
 :func:`.bindparam` construct once created.   Additionally, code which uses
 :func:`.bindparam` within an :class:`.Insert` or :class:`.Update` statement
index 1f27611251f5b7f27b0a5ea8e3eed3f7dfbb6b19..554d003bb85670a87e90e962007deae2e910dd32 100644 (file)
@@ -101,7 +101,7 @@ within a "CREATE TABLE" statement when
 :func:`~sqlalchemy.schema.MetaData.create_all` is issued, and
 :class:`~sqlalchemy.schema.ForeignKeyConstraint` invokes the "CONSTRAINT"
 keyword inline with "CREATE TABLE". There are some cases where this is
-undesireable, particularly when two tables reference each other mutually, each
+undesirable, particularly when two tables reference each other mutually, each
 with a foreign key referencing the other. In such a situation at least one of
 the foreign key constraints must be generated after both tables have been
 built. To support such a scheme, :class:`~sqlalchemy.schema.ForeignKey` and
@@ -424,7 +424,7 @@ name as follows::
 .. seealso::
 
     :paramref:`.MetaData.naming_convention` - for additional usage details
-    as well as a listing of all avaiable naming components.
+    as well as a listing of all available naming components.
 
     :ref:`alembic:tutorial_constraint_names` - in the Alembic documentation.
 
index 1b873972a77c6ba1b8d8a087020dbb96fd007098..e6f6c9e06befc89ebcd0a1f211b7826319af9066 100644 (file)
@@ -7,7 +7,7 @@ SQLAlchemy includes an event API which publishes a wide variety of hooks into
 the internals of both SQLAlchemy Core and ORM.
 
 .. versionadded:: 0.7
-    The system supercedes the previous system of "extension", "proxy",
+    The system supersedes the previous system of "extension", "proxy",
     and "listener" classes.
 
 Event Registration
index 55dbc7bc4d059b2c15778a20c09ca4bf29006cf0..d19b910b1c0b3efd7be87a9421912ace135553f1 100644 (file)
@@ -12,7 +12,7 @@ ORM events are described in :ref:`orm_event_toplevel`.
    :members:
 
 .. versionadded:: 0.7
-    The event system supercedes the previous system of "extension", "listener",
+    The event system supersedes the previous system of "extension", "listener",
     and "proxy" classes.
 
 Connection Pool Events
index 952f48f748f7c5b096e3b08531a2975d521dae46..57389cbec02a14b5224f1ef83694e5928dba7fb1 100644 (file)
@@ -149,7 +149,7 @@ includes but is not limited to:
 
 * The value of the ``.quote`` setting for :class:`.Column` or :class:`.Table`
 
-* The assocation of a particular :class:`.Sequence` with a given :class:`.Column`
+* The association of a particular :class:`.Sequence` with a given :class:`.Column`
 
 The relational database also in many cases reports on table metadata in a
 different format than what was specified in SQLAlchemy.   The :class:`.Table`
index 585d9ceb2b7af840fb3441eeef7e3901c972ba4d..22b903d28965cbd1d189eff3a0d13f01b53edd7b 100644 (file)
@@ -119,7 +119,7 @@ We define our tables all within a catalog called
 :class:`~sqlalchemy.schema.Table` construct, which resembles regular SQL
 CREATE TABLE statements. We'll make two tables, one of which represents
 "users" in an application, and another which represents zero or more "email
-addreses" for each row in the "users" table:
+addresses" for each row in the "users" table:
 
 .. sourcecode:: pycon+sql
 
@@ -1510,7 +1510,7 @@ method:
     (4,)
     {stop}[(u'wendy', 2)]
 
-A common system of dealing with duplicates in composed SELECT statments
+A common system of dealing with duplicates in composed SELECT statements
 is the DISTINCT modifier.  A simple DISTINCT clause can be added using the
 :meth:`.Select.distinct` method:
 
index b4781ee5102df4493619ce84eed503de306a80e5..14e30e46d1b824996493e70969edad90d3d27b9b 100644 (file)
@@ -426,7 +426,7 @@ meaning, in-place changes to values will not be detected and will not be
 flushed. Without further steps, you instead would need to replace the existing
 value with a new one on each parent object to detect changes. Note that
 there's nothing wrong with this, as many applications may not require that the
-values are ever mutated once created.  For those which do have this requirment,
+values are ever mutated once created.  For those which do have this requirement,
 support for mutability is best applied using the ``sqlalchemy.ext.mutable``
 extension - see the example in :ref:`mutable_toplevel`.
 
index dd7347b0b1891b41ee02c0c1912bb703bb125274..b92a1c744cc86006428cd09379255a3f504069e2 100644 (file)
@@ -823,7 +823,7 @@ I'm calling ``Session.delete(myobject)`` and it isn't removed from the parent co
 
 See :ref:`session_deleting_from_collections` for a description of this behavior.
 
-why isnt my ``__init__()`` called when I load objects?
+why isn't my ``__init__()`` called when I load objects?
 ------------------------------------------------------
 
 See :ref:`mapping_constructors` for a description of this behavior.
@@ -923,7 +923,7 @@ have meaning until the row is inserted; otherwise there is no row yet::
        many-to-one relationships load as according to foreign key attributes
        regardless of the object being in any particular state.
        Both techniques are **not recommended for general use**; they were added to suit
-       specfic programming scenarios encountered by users which involve the repurposing
+       specific programming scenarios encountered by users which involve the repurposing
        of the ORM's usual object states.
 
 The recipe `ExpireRelationshipOnFKChange <http://www.sqlalchemy.org/trac/wiki/UsageRecipes/ExpireRelationshipOnFKChange>`_ features an example using SQLAlchemy events
index cd6f87f29eb8095bc2dddccd75b1993bb0007348..ab9e92d26242076fa21ed13b6aaf023003e486e7 100644 (file)
@@ -387,7 +387,7 @@ Glossary
         A subquery comes in two general flavors, one known as a "scalar select"
         which specifically must return exactly one row and one column, and the
         other form which acts as a "derived table" and serves as a source of
-        rows for the FROM clause of another select.  A scalar select is eligble
+        rows for the FROM clause of another select.  A scalar select is eligible
         to be placed in the :term:`WHERE clause`, :term:`columns clause`,
         ORDER BY clause or HAVING clause of the enclosing select, whereas the
         derived table form is eligible to be placed in the FROM clause of the
@@ -447,7 +447,7 @@ Glossary
 
         The above subquery refers to the ``user_account`` table, which is not itself
         in the ``FROM`` clause of this nested query.   Instead, the ``user_account``
-        table is recieved from the enclosing query, where each row selected from
+        table is received from the enclosing query, where each row selected from
         ``user_account`` results in a distinct execution of the subquery.
 
         A correlated subquery is in most cases present in the :term:`WHERE clause`
index 2be74bf57c15b0c213d7db73108bdbccac945dc2..6f2e0cb29e7109078ccfba06ab36528e2552f307 100644 (file)
@@ -6,7 +6,7 @@ ORM Events
 The ORM includes a wide variety of hooks available for subscription.
 
 .. versionadded:: 0.7
-    The event supercedes the previous system of "extension" classes.
+    The event supersedes the previous system of "extension" classes.
 
 For an introduction to the event API, see :ref:`event_toplevel`.  Non-ORM events
 such as those regarding connections and low-level statement execution are described in 
index 816052340db12df17ddaaf24ebb30bbca4076d84..6c2fac004c4c61573dcebb1bee03065e416a24d5 100644 (file)
@@ -168,7 +168,7 @@ the string ``'*'`` as the argument to any of these options::
 
     session.query(MyClass).options(lazyload('*'))
 
-Above, the ``lazyload('*')`` option will supercede the ``lazy`` setting
+Above, the ``lazyload('*')`` option will supersede the ``lazy`` setting
 of all :func:`.relationship` constructs in use for that query,
 except for those which use the ``'dynamic'`` style of loading.
 If some relationships specify
@@ -177,7 +177,7 @@ using ``lazyload('*')`` will unilaterally
 cause all those relationships to use ``'select'`` loading, e.g. emit a
 SELECT statement when each attribute is accessed.
 
-The option does not supercede loader options stated in the
+The option does not supersede loader options stated in the
 query, such as :func:`.eagerload`,
 :func:`.subqueryload`, etc.  The query below will still use joined loading
 for the ``widget`` relationship::
index 2cf61d06c1348c32c0848a604f0fb864f8346fd1..9139b53f0ff827259d65cc559fbb40eb05262035 100644 (file)
@@ -942,7 +942,7 @@ using the :func:`.synonym_for` decorator::
 While the :func:`.synonym` is useful for simple mirroring, the use case
 of augmenting attribute behavior with descriptors is better handled in modern
 usage using the :ref:`hybrid attribute <mapper_hybrids>` feature, which
-is more oriented towards Python descriptors.   Techically, a :func:`.synonym`
+is more oriented towards Python descriptors.   Technically, a :func:`.synonym`
 can do everything that a :class:`.hybrid_property` can do, as it also supports
 injection of custom SQL capabilities, but the hybrid is more straightforward
 to use in more complex situations.
@@ -1464,7 +1464,7 @@ following::
 The above UPDATE statement is updating the row that not only matches
 ``user.id = 1``, it also is requiring that ``user.version_id = 1``, where "1"
 is the last version identifier we've been known to use on this object.
-If a transaction elsewhere has modifed the row independently, this version id
+If a transaction elsewhere has modified the row independently, this version id
 will no longer match, and the UPDATE statement will report that no rows matched;
 this is the condition that SQLAlchemy tests, that exactly one row matched our
 UPDATE (or DELETE) statement.  If zero rows match, that indicates our version
index ec96324d57a4c072466740213f34289ced6d7878..657d8e4b56e1567ab062d96f1e9945c6f4d70ce8 100644 (file)
@@ -634,7 +634,7 @@ When given an instance, it follows these steps:
 * The new instance is returned.
 
 With :meth:`~.Session.merge`, the given "source"
-instance is not modifed nor is it associated with the target :class:`.Session`,
+instance is not modified nor is it associated with the target :class:`.Session`,
 and remains available to be merged with any number of other :class:`.Session`
 objects.  :meth:`~.Session.merge` is useful for
 taking the state of any kind of object structure without regard for its
@@ -686,7 +686,7 @@ Merge Tips
 
 :meth:`~.Session.merge` is an extremely useful method for many purposes.  However,
 it deals with the intricate border between objects that are transient/detached and
-those that are persistent, as well as the automated transferrence of state.
+those that are persistent, as well as the automated transference of state.
 The wide variety of scenarios that can present themselves here often require a
 more careful approach to the state of objects.   Common problems with merge usually involve
 some unexpected state regarding the object being passed to :meth:`~.Session.merge`.
@@ -1523,7 +1523,7 @@ deleting the row entirely.
       relationship, SQLAlchemy's default behavior of setting a foreign key
       to ``NULL`` can be caught in one of two ways:
 
-        * The easiest and most common is just to to set the
+        * The easiest and most common is just to set the
           foreign-key-holding column to ``NOT NULL`` at the database schema
           level.  An attempt by SQLAlchemy to set the column to NULL will
           fail with a simple NOT NULL constraint exception.
@@ -1823,7 +1823,7 @@ is closed out after the :meth:`.Session.flush` operation completes.
     of usage, and can in some cases lead to concurrent connection
     checkouts.
 
-    In the absense of a demarcated transaction, the :class:`.Session`
+    In the absence of a demarcated transaction, the :class:`.Session`
     cannot make appropriate decisions as to when autoflush should
     occur nor when auto-expiration should occur, so these features
     should be disabled with ``autoflush=False, expire_on_commit=False``.
index 410346838f1d19add414fcfc7492c22a66efcdb6..34b1be5b21156d491f9556242ce0be7e397e6399 100644 (file)
@@ -109,7 +109,7 @@ def id_chooser(query, ident):
 
     given a primary key, returns a list of shards
     to search.  here, we don't have any particular information from a
-    pk so we just return all shard ids. often, youd want to do some
+    pk so we just return all shard ids. often, you'd want to do some
     kind of round-robin strategy here so that requests are evenly
     distributed among DBs.
 
index 774bfbe0528c6c6921a2103af5368df29a62d656..054c55492268025c3145244828d42ad904c5f12b 100644 (file)
@@ -111,7 +111,7 @@ class ConfigData(Base):
         make_transient(self)
         self.id = None
 
-        # history of the 'elements' collecton.
+        # history of the 'elements' collection.
         # this is a tuple of groups: (added, unchanged, deleted)
         hist = attributes.get_history(self, 'elements')
 
@@ -146,7 +146,7 @@ class ConfigValueAssociation(Base):
 
 
     config_value_id = Column(ForeignKey('config_value.id'), primary_key=True)
-    """Reference the primary key of hte ConfigValue object."""
+    """Reference the primary key of the ConfigValue object."""
 
     config_value = relationship("ConfigValue", lazy="joined", innerjoin=True)
     """Reference the related ConfigValue object."""
index b8a83a07be820de2336f46ffacfdcc115019d491..afd62ffd3196ec7b078aab803caba385a64d688b 100644 (file)
@@ -24,7 +24,7 @@ also accepts the following:
 
 * ``concurrency_level`` - set the backend policy with regards to threading
   issues: by default SQLAlchemy uses policy 1.  See the linked documents
-  below for futher information.
+  below for further information.
 
 .. seealso::
 
index b5fcfbdaf75cbf88a90afe55b329972181904ba5..5f8825f369c3dd587643c6c79b0169858d33aade 100644 (file)
@@ -19,7 +19,7 @@ SQLAlchemy zxjdbc dialects pass unicode straight through to the
 zxjdbc/JDBC layer. To allow multiple character sets to be sent from the
 MySQL Connector/J JDBC driver, by default SQLAlchemy sets its
 ``characterEncoding`` connection property to ``UTF-8``. It may be
-overriden via a ``create_engine`` URL parameter.
+overridden via a ``create_engine`` URL parameter.
 
 """
 import re
index 8bacb885f8ace5c92eca8f438da01ede350c4d93..5dcc93f79d6f9063405a926223a2eb9bcdca7294 100644 (file)
@@ -961,7 +961,7 @@ class OracleDialect(default.DefaultDialect):
     def get_table_names(self, connection, schema=None, **kw):
         schema = self.denormalize_name(schema or self.default_schema_name)
 
-        # note that table_names() isnt loading DBLINKed or synonym'ed tables
+        # note that table_names() isn't loading DBLINKed or synonym'ed tables
         if schema is None:
             schema = self.default_schema_name
         s = sql.text(
index b8ee90b53ef97ccf61fa8533d5c1a4c3929d79f9..d485820f93e3f2a41f31bac384668f705b600774 100644 (file)
@@ -255,7 +255,7 @@ The "decimal point is present" logic itself is also sensitive to
 locale.  Under OCI_, this is controlled by the NLS_LANG
 environment variable. Upon first connection, the dialect runs a
 test to determine the current "decimal" character, which can be
-a comma "," for european locales. From that point forward the
+a comma "," for European locales. From that point forward the
 outputtypehandler uses that character to represent a decimal
 point. Note that cx_oracle 5.0.3 or greater is required
 when dealing with numerics with locale settings that don't use
@@ -741,7 +741,7 @@ class OracleDialect_cx_oracle(OracleDialect):
 
     def _detect_decimal_char(self, connection):
         """detect if the decimal separator character is not '.', as
-        is the case with european locale settings for NLS_LANG.
+        is the case with European locale settings for NLS_LANG.
 
         cx_oracle itself uses similar logic when it formats Python
         Decimal objects to strings on the bind side (as of 5.0.3),
index 76562088dd75d64b11964ac557b485d83357ed47..74419460bccea8495d27562e1caad099af0c125a 100644 (file)
@@ -52,7 +52,7 @@ def _parse_error(hstore_str, pos):
 
 
 def _parse_hstore(hstore_str):
-    """Parse an hstore from it's literal string representation.
+    """Parse an hstore from its literal string representation.
 
     Attempts to approximate PG's hstore input parsing rules as closely as
     possible. Although currently this is not strictly necessary, since the
index 714b9618c849f4e16d9d91e910247962642abfc1..c4f7c032dc9fc1ad4cc0cdc2713321b6de91f955 100644 (file)
@@ -102,7 +102,7 @@ This overrides the encoding specified in the Postgresql client configuration.
     :func:`.create_engine`.
 
 SQLAlchemy can also be instructed to skip the usage of the psycopg2
-``UNICODE`` extension and to instead utilize it's own unicode encode/decode
+``UNICODE`` extension and to instead utilize its own unicode encode/decode
 services, which are normally reserved only for those DBAPIs that don't
 fully support unicode directly.  Passing ``use_native_unicode=False`` to
 :func:`.create_engine` will disable usage of ``psycopg2.extensions.UNICODE``.
@@ -169,7 +169,7 @@ connection, a sequence like the following is performed:
    If this function returns a list of HSTORE identifiers, we then determine that
    the ``HSTORE`` extension is present.
 
-2. If the ``use_native_hstore`` flag is at it's default of ``True``, and
+2. If the ``use_native_hstore`` flag is at its default of ``True``, and
    we've detected that ``HSTORE`` oids are available, the
    ``psycopg2.extensions.register_hstore()`` extension is invoked for all
    connections.
index 90df9c1928b70900c48cba1ebe9332220e15df70..7687493b2e77221931f4fd879d0297a12320fa71 100644 (file)
@@ -100,7 +100,7 @@ table.
 Constraint checking on SQLite has three prerequisites:
 
 * At least version 3.6.19 of SQLite must be in use
-* The SQLite libary must be compiled *without* the SQLITE_OMIT_FOREIGN_KEY
+* The SQLite library must be compiled *without* the SQLITE_OMIT_FOREIGN_KEY
   or SQLITE_OMIT_TRIGGER symbols enabled.
 * The ``PRAGMA foreign_keys = ON`` statement must be emitted on all connections
   before use.
@@ -244,7 +244,7 @@ class DATETIME(_DateTimeMixin, sqltypes.DateTime):
     :param regexp: regular expression which will be applied to incoming result
      rows. If the regexp contains named groups, the resulting match dict is
      applied to the Python datetime() constructor as keyword arguments.
-     Otherwise, if positional groups are used, the the datetime() constructor
+     Otherwise, if positional groups are used, the datetime() constructor
      is called with positional arguments via
      ``*map(int, match_obj.groups(0))``.
     """
@@ -337,7 +337,7 @@ class DATE(_DateTimeMixin, sqltypes.Date):
      incoming result rows. If the regexp contains named groups, the
      resulting match dict is applied to the Python date() constructor
      as keyword arguments. Otherwise, if positional groups are used, the
-     the date() constructor is called with positional arguments via
+     date() constructor is called with positional arguments via
      ``*map(int, match_obj.groups(0))``.
     """
 
@@ -397,7 +397,7 @@ class TIME(_DateTimeMixin, sqltypes.Time):
     :param regexp: regular expression which will be applied to incoming result
      rows. If the regexp contains named groups, the resulting match dict is
      applied to the Python time() constructor as keyword arguments. Otherwise,
-     if positional groups are used, the the time() constructor is called with
+     if positional groups are used, the time() constructor is called with
      positional arguments via ``*map(int, match_obj.groups(0))``.
     """
 
@@ -874,7 +874,7 @@ class SQLiteDialect(default.DefaultDialect):
     def _resolve_type_affinity(self, type_):
         """Return a data type from a reflected column, using affinity tules.
 
-        SQLite's goal for universal compatability introduces some complexity
+        SQLite's goal for universal compatibility introduces some complexity
         during reflection, as a column's defined type might not actually be a
         type that SQLite understands - or indeed, my not be defined *at all*.
         Internally, SQLite handles this with a 'data type affinity' for each
index 9f656cac8b114aa41fb114f497831f6aafa9b591..bb3b82eea01f477796825b04af96881934104b63 100644 (file)
@@ -1078,7 +1078,7 @@ class Connection(Connectable):
         self._reentrant_error = True
         try:
             # non-DBAPI error - if we already got a context,
-            # or theres no string statement, don't wrap it
+            # or there's no string statement, don't wrap it
             should_wrap = isinstance(e, self.dialect.dbapi.Error) or \
                 (statement is not None and context is None)
 
index 7372258635ba25796ed59c98a353a43fe4ea8d5d..22801c28431c2ae7b21c3de87e4023eda6fcec91 100644 (file)
@@ -189,7 +189,7 @@ class Dialect(object):
         The connection passed here is a SQLAlchemy Connection object,
         with full capabilities.
 
-        The initalize() method of the base dialect should be called via
+        The initialize() method of the base dialect should be called via
         super().
 
         """
@@ -443,7 +443,7 @@ class Dialect(object):
         :meth:`.Dialect.do_autocommit`
         hook is provided for DBAPIs that need some extra commands emitted
         after a commit in order to enter the next transaction, when the
-        SQLAlchemy :class:`.Connection` is used in it's default "autocommit"
+        SQLAlchemy :class:`.Connection` is used in its default "autocommit"
         mode.
 
         :param dbapi_connection: a DBAPI connection, typically
index 9ba6de68b37a64b91e13b3e22a7598e7f7161cea..908ce378f69fa8132fed9f63ff5715dc01755e39 100644 (file)
@@ -74,7 +74,7 @@ class DDLEvents(event.Events):
     _dispatch_target = SchemaEventTarget
 
     def before_create(self, target, connection, **kw):
-        """Called before CREATE statments are emitted.
+        """Called before CREATE statements are emitted.
 
         :param target: the :class:`.MetaData` or :class:`.Table`
          object which is the target of the event.
@@ -90,7 +90,7 @@ class DDLEvents(event.Events):
         """
 
     def after_create(self, target, connection, **kw):
-        """Called after CREATE statments are emitted.
+        """Called after CREATE statements are emitted.
 
         :param target: the :class:`.MetaData` or :class:`.Table`
          object which is the target of the event.
@@ -106,7 +106,7 @@ class DDLEvents(event.Events):
         """
 
     def before_drop(self, target, connection, **kw):
-        """Called before DROP statments are emitted.
+        """Called before DROP statements are emitted.
 
         :param target: the :class:`.MetaData` or :class:`.Table`
          object which is the target of the event.
@@ -122,7 +122,7 @@ class DDLEvents(event.Events):
         """
 
     def after_drop(self, target, connection, **kw):
-        """Called after DROP statments are emitted.
+        """Called after DROP statements are emitted.
 
         :param target: the :class:`.MetaData` or :class:`.Table`
          object which is the target of the event.
@@ -348,7 +348,7 @@ class PoolEvents(event.Events):
 
 
         The :meth:`.PoolEvents.reset` event is usually followed by the
-        the :meth:`.PoolEvents.checkin` event is called, except in those
+        :meth:`.PoolEvents.checkin` event is called, except in those
         cases where the connection is discarded immediately after reset.
 
         :param dbapi_connection: a DBAPI connection.
@@ -611,7 +611,7 @@ class ConnectionEvents(event.Events):
 
         This event is called with the DBAPI exception instance
         received from the DBAPI itself, *before* SQLAlchemy wraps the
-        exception with it's own exception wrappers, and before any
+        exception with its own exception wrappers, and before any
         other operations are performed on the DBAPI cursor; the
         existing transaction remains in effect as well as any state
         on the cursor.
index dfc838da31693fab363bf202f2207d9be74a5f69..922ba1642630c56c3fd56f522cba1368a129a426 100644 (file)
@@ -231,7 +231,7 @@ by which this works for many-to-one and one-to-many relationships is as follows:
    object present is matched up to the class to which it is to be mapped,
    if any, else it is skipped.
 
-3. As the :class:`.ForeignKeyConstraint` we are examining correponds to a reference
+3. As the :class:`.ForeignKeyConstraint` we are examining corresponds to a reference
    from the immediate mapped class,
    the relationship will be set up as a many-to-one referring to the referred class;
    a corresponding one-to-many backref will be created on the referred class referring
index 4010789b6bf4bd10d100b0c0c60a29ed374e3734..a77405e5496102868c30ed596fe674ffe930c3f6 100644 (file)
@@ -971,7 +971,7 @@ The condition above is resolved using a lambda::
                 primaryjoin=lambda: Target.id==cls.target_id
             )
 
-or alternatively, the string form (which ultmately generates a lambda)::
+or alternatively, the string form (which ultimately generates a lambda)::
 
     class RefTargetMixin(object):
         @declared_attr
@@ -1053,7 +1053,7 @@ string values to an implementing class::
 
 Above, the ``HasStringCollection`` mixin produces a :func:`.relationship`
 which refers to a newly generated class called ``StringAttribute``.  The
-``StringAttribute`` class is generated with it's own :class:`.Table`
+``StringAttribute`` class is generated with its own :class:`.Table`
 definition which is local to the parent class making usage of the
 ``HasStringCollection`` mixin.  It also produces an :func:`.association_proxy`
 object which proxies references to the ``strings`` attribute onto the ``value``
index c4ba6d571c32838ddf4d88fc105a7429d445d482..5ea4a6a9014bf2d2d636d917b12be573d50f4e83 100644 (file)
@@ -103,7 +103,7 @@ attribute, so that the ordering is correct when first loaded.
       SQLAlchemy's unit of work performs all INSERTs before DELETEs within a
       single flush.  In the case of a primary key, it will trade
       an INSERT/DELETE of the same primary key for an UPDATE statement in order
-      to lessen the impact of this lmitation, however this does not take place
+      to lessen the impact of this limitation, however this does not take place
       for a UNIQUE column.
       A future feature will allow the "DELETE before INSERT" behavior to be
       possible, allevating this limitation, though this feature will require
index 935761d5f54fd041d0c55888dacadb38260454d7..b42bd3dbdb117d67ab41151966a7bcdd39aa34b4 100644 (file)
@@ -21,7 +21,7 @@ import logging
 import sys
 
 # set initial level to WARN.  This so that
-# log statements don't occur in the absense of explicit
+# log statements don't occur in the absence of explicit
 # logging being enabled for 'sqlalchemy'.
 rootlogger = logging.getLogger('sqlalchemy')
 if rootlogger.level == logging.NOTSET:
index 3a786c73d418430c90e4b29bec6e08cf074d26c9..bf7dab4e7f3b92a55aafeb1a0d99c9fa297e5a62 100644 (file)
@@ -98,7 +98,7 @@ class QueryableAttribute(interfaces._MappedAttribute,
           any other kind of SQL expression other than a :class:`.Column`,
           the attribute will refer to the :attr:`.MapperProperty.info` dictionary
           associated directly with the :class:`.ColumnProperty`, assuming the SQL
-          expression itself does not have it's own ``.info`` attribute
+          expression itself does not have its own ``.info`` attribute
           (which should be the case, unless a user-defined SQL construct
           has defined one).
 
index 078f4d12f12fc035a64aacf7a281a1325d408502..6bc6b17ff2d90cf24dadbda8fdc9defe43f7f205 100644 (file)
@@ -1648,7 +1648,7 @@ class AttributeEvents(event.Events):
           replaces it.
         :param initiator: An instance of :class:`.attributes.Event`
           representing the initiation of the event.  May be modified
-          from it's original value by backref handlers in order to control
+          from its original value by backref handlers in order to control
           chained event propagation.
 
           .. versionchanged:: 0.9.0 the ``initiator`` argument is now
@@ -1669,7 +1669,7 @@ class AttributeEvents(event.Events):
         :param value: the value being removed.
         :param initiator: An instance of :class:`.attributes.Event`
           representing the initiation of the event.  May be modified
-          from it's original value by backref handlers in order to control
+          from its original value by backref handlers in order to control
           chained event propagation.
 
           .. versionchanged:: 0.9.0 the ``initiator`` argument is now
@@ -1697,7 +1697,7 @@ class AttributeEvents(event.Events):
           or expired.
         :param initiator: An instance of :class:`.attributes.Event`
           representing the initiation of the event.  May be modified
-          from it's original value by backref handlers in order to control
+          from its original value by backref handlers in order to control
           chained event propagation.
 
           .. versionchanged:: 0.9.0 the ``initiator`` argument is now
index a939cb9c76d6bcee7fd21826d42a500e2b511382..3e93840a1af072384c1efe84ee0ad158b010cbaf 100644 (file)
@@ -210,7 +210,7 @@ class Mapper(_InspectionAttr):
            See the section :ref:`concrete_inheritance` for an example.
 
         :param confirm_deleted_rows: defaults to True; when a DELETE occurs
-          of one more more rows based on specific primary keys, a warning is
+          of one more rows based on specific primary keys, a warning is
           emitted when the number of rows matched does not equal the number
           of rows expected.  This parameter may be set to False to handle the case
           where database ON DELETE CASCADE rules may be deleting some of those
@@ -913,7 +913,7 @@ class Mapper(_InspectionAttr):
                     if self.inherit_condition is None:
                         # figure out inherit condition from our table to the
                         # immediate table of the inherited mapper, not its
-                        # full table which could pull in other stuff we dont
+                        # full table which could pull in other stuff we don't
                         # want (allows test/inheritance.InheritTest4 to pass)
                         self.inherit_condition = sql_util.join_condition(
                                                     self.inherits.local_table,
@@ -1311,7 +1311,7 @@ class Mapper(_InspectionAttr):
             setter = True
 
             if isinstance(self.polymorphic_on, util.string_types):
-                # polymorphic_on specified as as string - link
+                # polymorphic_on specified as a string - link
                 # it to mapped ColumnProperty
                 try:
                     self.polymorphic_on = self._props[self.polymorphic_on]
@@ -2463,7 +2463,7 @@ class Mapper(_InspectionAttr):
             # attempt to skip dependencies that are not
             # significant to the inheritance chain
             # for two tables that are related by inheritance.
-            # while that dependency may be important, it's techinically
+            # while that dependency may be important, it's technically
             # not what we mean to sort on here.
             parent = table_to_mapper.get(fk.parent.table)
             dep = table_to_mapper.get(fk.column.table)
index 0d9ee87b30b404233c661c9a090a10374f16a469..b7992c9bd8fbe2a4b6e3c9c1f738bad267070897 100644 (file)
@@ -666,7 +666,7 @@ class RelationshipProperty(StrategizedProperty):
 
           .. seealso::
 
-            :ref:`self_referential` - in-depth explaination of how
+            :ref:`self_referential` - in-depth explanation of how
             :paramref:`~.relationship.remote_side`
             is used to configure self-referential relationships.
 
index 613ca82c4301806fa7c12631e84d23f093411897..89d9946ee65db43c7ca077d11f8ca84a8b1b3668 100644 (file)
@@ -1016,7 +1016,7 @@ class Session(_SessionClassMethods):
         self._deleted = {}
 
     # TODO: need much more test coverage for bind_mapper() and similar !
-    # TODO: + crystalize + document resolution order
+    # TODO: + crystallize + document resolution order
     #       vis. bind_mapper/bind_table
 
     def bind_mapper(self, mapper, bind):
@@ -1194,7 +1194,7 @@ class Session(_SessionClassMethods):
                 e.add_detail(
                         "raised as a result of Query-invoked autoflush; "
                         "consider using a session.no_autoflush block if this "
-                        "flush is occuring prematurely")
+                        "flush is occurring prematurely")
                 util.raise_from_cause(e)
 
     def refresh(self, instance, attribute_names=None, lockmode=None):
index 4a07e785696f3520085a40999762215510eb5bb1..3ebadd62b30c23b7bfe1cd8c578c9e705901c2f3 100644 (file)
@@ -1033,7 +1033,7 @@ class JoinedLoader(AbstractRelationshipLoader):
     def setup_query(self, context, entity, path, loadopt, adapter, \
                                 column_collection=None, parentmapper=None,
                                 **kwargs):
-        """Add a left outer join to the statement thats being constructed."""
+        """Add a left outer join to the statement that's being constructed."""
 
         if not context.query._enable_eagerloads:
             return
@@ -1337,7 +1337,7 @@ class JoinedLoader(AbstractRelationshipLoader):
             self.mapper.identity_key_from_row(row, decorator)
             return decorator
         except KeyError:
-            # no identity key - dont return a row
+            # no identity key - don't return a row
             # processor, will cause a degrade to lazy
             return False
 
index dd85f2ef1d299f22c99b36b75547aaeb10ad628b..8694705a48f4c42427d66e4794f36e1951331309 100644 (file)
@@ -141,7 +141,7 @@ def polymorphic_union(table_map, typecolname,
     for key in table_map:
         table = table_map[key]
 
-        # mysql doesnt like selecting from a select;
+        # mysql doesn't like selecting from a select;
         # make it an alias of the select
         if isinstance(table, sql.Select):
             table = table.alias()
index 8556272a62904693433b39bf65ab24e7d8ac598a..743d1b40eaefbbf03142c6166efda79a6d0ce61f 100644 (file)
@@ -4,7 +4,7 @@
 # This module is part of SQLAlchemy and is released under
 # the MIT License: http://www.opensource.org/licenses/mit-license.php
 
-"""Compatiblity namespace for sqlalchemy.sql.schema and related.
+"""Compatibility namespace for sqlalchemy.sql.schema and related.
 
 """
 
index 31193ab1789e2e27d1d69dc3f6c21bd1db89d1c4..169dc2cc3400238807d762a7b439f69a9c7c19d2 100644 (file)
@@ -2143,7 +2143,7 @@ class SQLCompiler(Compiled):
                             c in implicit_return_defaults:
                             self.returning.append(c)
                         elif not c.primary_key:
-                            # dont add primary key column to postfetch
+                            # don't add primary key column to postfetch
                             self.postfetch.append(c)
                     else:
                         values.append(
index bda8765021d20f968faaeedca9272e4b22b13608..2a282ed57364a598ce604eff8da4c3cf24fd0fe3 100644 (file)
@@ -295,7 +295,7 @@ class DDL(DDLElement):
       %(fullname)s - the Table name including schema, quoted if needed
 
     The DDL's "context", if any, will be combined with the standard
-    substutions noted above.  Keys present in the context will override
+    substitutions noted above.  Keys present in the context will override
     the standard substitutions.
 
     """
@@ -394,7 +394,7 @@ class DDL(DDLElement):
 
 
 class _CreateDropBase(DDLElement):
-    """Base class for DDL constucts that represent CREATE and DROP or
+    """Base class for DDL constructs that represent CREATE and DROP or
     equivalents.
 
     The common theme of _CreateDropBase is a single
index 5ebc7478a65a6abbe2f0fb4c77002732e0b11b6c..aef3a6c85a1defd1fd6487da5dd8942b77f5fbdd 100644 (file)
@@ -143,7 +143,7 @@ def type_coerce(expression, type_):
     passed to :func:`.type_coerce` as targets.
     For example, if a type implements the :meth:`.TypeEngine.bind_expression`
     method or :meth:`.TypeEngine.bind_processor` method or equivalent,
-    these functions will take effect at statement compliation/execution time
+    these functions will take effect at statement compilation/execution time
     when a literal value is passed, as in::
 
         # bound-value handling of MyStringType will be applied to the
@@ -158,7 +158,7 @@ def type_coerce(expression, type_):
      or a Python string which will be coerced into a bound literal value.
 
     :param type_: A :class:`.TypeEngine` class or instance indicating
-     the type to which the the expression is coerced.
+     the type to which the expression is coerced.
 
     .. seealso::
 
@@ -854,7 +854,7 @@ class BindParameter(ColumnElement):
             expr = users_table.c.name == 'Wendy'
 
         The above expression will produce a :class:`.BinaryExpression`
-        contruct, where the left side is the :class:`.Column` object
+        construct, where the left side is the :class:`.Column` object
         representing the ``name`` column, and the right side is a :class:`.BindParameter`
         representing the literal value::
 
@@ -1916,7 +1916,7 @@ class Case(ColumnElement):
         languages.  It returns an instance of :class:`.Case`.
 
         :func:`.case` in its usual form is passed a list of "when"
-        contructs, that is, a list of conditions and results as tuples::
+        constructs, that is, a list of conditions and results as tuples::
 
             from sqlalchemy import case
 
@@ -2508,7 +2508,7 @@ class BinaryExpression(ColumnElement):
     """Represent an expression that is ``LEFT <operator> RIGHT``.
 
     A :class:`.BinaryExpression` is generated automatically
-    whenever two column expressions are used in a Python binary expresion::
+    whenever two column expressions are used in a Python binary expression::
 
         >>> from sqlalchemy.sql import column
         >>> column('a') + column('b')
index 2aad60c8fcdfcb34c1c4d17a995bd51a7135a15f..e8f1ffae154740612281d8c6d52d54578302458a 100644 (file)
@@ -1836,7 +1836,7 @@ class ColumnDefault(DefaultGenerator):
     def _maybe_wrap_callable(self, fn):
         """Wrap callables that don't accept a context.
 
-        This is to allow easy compatiblity with default callables
+        This is to allow easy compatibility with default callables
         that aren't specific to accepting of a context.
 
         """
@@ -2785,7 +2785,7 @@ class Index(DialectKWArgs, ColumnCollectionMixin, SchemaItem):
         :param \*expressions:
           Column expressions to include in the index.   The expressions
           are normally instances of :class:`.Column`, but may also
-          be arbitrary SQL expressions which ultmately refer to a
+          be arbitrary SQL expressions which ultimately refer to a
           :class:`.Column`.
 
         :param unique=False:
@@ -2973,7 +2973,7 @@ class MetaData(SchemaItem):
           The values associated with each "constraint class" or "constraint
           mnemonic" key are string naming templates, such as
           ``"uq_%(table_name)s_%(column_0_name)s"``,
-          which decribe how the name should be composed.  The values associated
+          which describe how the name should be composed.  The values associated
           with user-defined "token" keys should be callables of the form
           ``fn(constraint, table)``, which accepts the constraint/index
           object and :class:`.Table` as arguments, returning a string
@@ -3387,7 +3387,7 @@ class ThreadLocalMetaData(MetaData):
                 self.__engines[bind] = e
                 self.context._engine = e
         else:
-            # TODO: this is squirrely.  we shouldnt have to hold onto engines
+            # TODO: this is squirrely.  we shouldn't have to hold onto engines
             # in a case like this
             if bind not in self.__engines:
                 self.__engines[bind] = bind
index afcf437e9dbf7cb1b0db675b983039e1ca5826c8..61abe815ddb69a269cd49cf67d81ce75855f1a00 100644 (file)
@@ -2060,7 +2060,7 @@ class Select(HasPrefixes, GenerativeSelect):
           Use this parameter to explicitly specify "from" objects which are not
           automatically locatable. This could include
           :class:`~sqlalchemy.schema.Table` objects that aren't otherwise present,
-          or :class:`.Join` objects whose presence will supercede that of the
+          or :class:`.Join` objects whose presence will supersede that of the
           :class:`~sqlalchemy.schema.Table` objects already located in the other
           clauses.
 
@@ -2403,7 +2403,7 @@ class Select(HasPrefixes, GenerativeSelect):
         # here is the same item is _correlate as in _from_obj but the
         # _correlate version has an annotation on it - (specifically
         # RelationshipProperty.Comparator._criterion_exists() does
-        # this). Also keep _correlate liberally open with it's previous
+        # this). Also keep _correlate liberally open with its previous
         # contents, as this set is used for matching, not rendering.
         self._correlate = set(clone(f) for f in
                               self._correlate).union(self._correlate)
@@ -2411,7 +2411,7 @@ class Select(HasPrefixes, GenerativeSelect):
         # 4. clone other things.   The difficulty here is that Column
         # objects are not actually cloned, and refer to their original
         # .table, resulting in the wrong "from" parent after a clone
-        # operation.  Hence _from_cloned and _from_obj supercede what is
+        # operation.  Hence _from_cloned and _from_obj supersede what is
         # present here.
         self._raw_columns = [clone(c, **kw) for c in self._raw_columns]
         for attr in '_whereclause', '_having', '_order_by_clause', \
index 1f534c55ed9b80f3181e508668c99d953f805f2f..48b447b37014d868df1b1163d8974c7676666fac 100644 (file)
@@ -1050,7 +1050,7 @@ def adapt_type(typeobj, colspecs):
         except KeyError:
             pass
     else:
-        # couldnt adapt - so just return the type itself
+        # couldn't adapt - so just return the type itself
         # (it may be a user-defined type)
         return typeobj
     # if we adapted the given generic type to a database-specific type,
index 50ce30aafdee4c31225e548a7e7bffb5e6aab811..639f53ddc0cd6b7f4ab76644d003c9e8cae79ed6 100644 (file)
@@ -94,7 +94,7 @@ def visit_binary_product(fn, expr):
 
     def visit(element):
         if isinstance(element, ScalarSelect):
-            # we dont want to dig into correlated subqueries,
+            # we don't want to dig into correlated subqueries,
             # those are just column elements by themselves
             yield element
         elif element.__visit_name__ == 'binary' and \
@@ -321,7 +321,7 @@ def reduce_columns(columns, *clauses, **kw):
 
     This function is primarily used to determine the most minimal "primary key"
     from a selectable, by reducing the set of primary key columns present
-    in the the selectable to just those that are not repeated.
+    in the selectable to just those that are not repeated.
 
     """
     ignore_nonexistent_tables = kw.pop('ignore_nonexistent_tables', False)
index edc9df047b7e09cdf92dda9f8fe138045805d3c2..9373e2dc4ff8b07e1e23aef9c3ca893ef4b7a689 100644 (file)
@@ -172,7 +172,7 @@ def _assert_no_stray_pool_connections():
         # so the error doesn't at least keep happening.
         pool._refs.clear()
         _STRAY_CONNECTION_FAILURES = 0
-        assert False, "Stray conections in cleanup: %s" % err
+        assert False, "Stray connections in cleanup: %s" % err
 
 
 def eq_(a, b, msg=None):
index d27be3cde0f3b96cc15c49565b90813f4e32b5d5..1d149862018360b198d315a99bc738216cf9da03 100644 (file)
@@ -57,7 +57,7 @@ class ConnectionKiller(object):
 
     def _after_test_ctx(self):
         # this can cause a deadlock with pg8000 - pg8000 acquires
-        # prepared statment lock inside of rollback() - if async gc
+        # prepared statement lock inside of rollback() - if async gc
         # is collecting in finalize_fairy, deadlock.
         # not sure if this should be if pypy/jython only.
         # note that firebird/fdb definitely needs this though
index 9309abfd8df64083475ccc3cea26f25e6452f4c3..ccde77a7eacfbda0aca0feb3495dcba747a203d2 100644 (file)
@@ -57,7 +57,7 @@ class ComparableEntity(BasicEntity):
         _recursion_stack.add(id(self))
 
         try:
-            # pick the entity thats not SA persisted as the source
+            # pick the entity that's not SA persisted as the source
             try:
                 self_key = sa.orm.attributes.instance_state(self).key
             except sa.orm.exc.NO_STATE:
index 07b5697e2fc2e494951c2d35a37f241a1eb4b566..04e8ad272b46f5e19a13d9aef1a3a372849a89c0 100644 (file)
@@ -10,7 +10,7 @@ Provides decorators to mark tests requiring specific feature support from the
 target database.
 
 External dialect test suites should subclass SuiteRequirements
-to provide specific inclusion/exlusions.
+to provide specific inclusion/exclusions.
 
 """
 
index 3994bd4a8b65a222fd46e44cc5290238cb2b8986..31d1dbac0ef0a1c5123c8b918b9e6fc12ab27068 100644 (file)
@@ -4,7 +4,7 @@
 # This module is part of SQLAlchemy and is released under
 # the MIT License: http://www.opensource.org/licenses/mit-license.php
 
-"""Compatiblity namespace for sqlalchemy.sql.types.
+"""Compatibility namespace for sqlalchemy.sql.types.
 
 """
 
index c0a24ba4f50175db3c4ff44dbc161cc8801f3066..be80a072ec2c0d7331284341818566953e70b8c7 100644 (file)
@@ -859,7 +859,7 @@ class LRUCache(dict):
                 try:
                     del self[item[0]]
                 except KeyError:
-                    # if we couldnt find a key, most
+                    # if we couldn't find a key, most
                     # likely some other thread broke in
                     # on us. loop around and try again
                     break
@@ -908,7 +908,7 @@ class ScopedRegistry(object):
         return self.scopefunc() in self.registry
 
     def set(self, obj):
-        """Set the value forthe current scope."""
+        """Set the value for the current scope."""
 
         self.registry[self.scopefunc()] = obj
 
index 8a1164e77f13f32b774d1df265a3041d94dc40a7..ad1c286f3941f41db50c7f709e85c685baacfe8d 100644 (file)
@@ -200,7 +200,7 @@ def get_cls_kwargs(cls, _set=None):
 
     Probes a class's __init__ method, collecting all named arguments.  If the
     __init__ defines a \**kwargs catch-all, then the constructor is presumed to
-    pass along unrecognized keywords to it's base classes, and the collection
+    pass along unrecognized keywords to its base classes, and the collection
     process is repeated recursively on each of the bases.
 
     Uses a subset of inspect.getargspec() to cut down on method overhead.
index 1b98873337904f2b50ded39e3b58ceb5622972b6..ab1815e8a51de9c277b02d6b9fd395a9b464ff54 100644 (file)
@@ -527,7 +527,7 @@ class MemUsageTest(EnsureZeroed):
                 sess.delete(a)
             sess.flush()
 
-            # dont need to clear_mappers()
+            # don't need to clear_mappers()
             del B
             del A
 
@@ -594,7 +594,7 @@ class MemUsageTest(EnsureZeroed):
                 sess.delete(a)
             sess.flush()
 
-            # dont need to clear_mappers()
+            # don't need to clear_mappers()
             del B
             del A
 
index cf41d2684e508ca612993f992fadd8776965b0db..498c83b1bffe419e513c20f2207adade0e6ac269 100644 (file)
@@ -15,7 +15,7 @@ class QueuePoolTest(fixtures.TestBase, AssertsExecutionResults):
 
     def teardown(self):
         # the tests leave some fake connections
-        # around which dont necessarily
+        # around which don't necessarily
         # get gc'ed as quickly as we'd like,
         # on backends like pypy, python3.2
         pool_module._refs.clear()
index 6a12744a73ce0efd0bd17933c8dd94005d005e99..715eebb8489e2096c8d5b541c8bc0fa8aeed1f9e 100644 (file)
@@ -248,7 +248,7 @@ class QueryTest(testing.AssertsExecutionResults, fixtures.TestBase):
                 testing.db,
                 lambda: engine.execute(t1.insert()),
                 ExactSQL("INSERT INTO t1 DEFAULT VALUES"),
-                # we dont have an event for
+                # we don't have an event for
                 # "SELECT @@IDENTITY" part here.
                 # this will be in 0.8 with #2459
         )
index 7f22c6a6b1dffaec3f9a199e21530f78337e407c..e4b247713381024d31db865515660a64446798ec 100644 (file)
@@ -69,7 +69,7 @@ class MiscTest(fixtures.TestBase, AssertsExecutionResults, AssertsCompiledSQL):
                     startswith(".".join(str(x) for x in v))
 
     # currently not passing with pg 9.3 that does not seem to generate
-    # any notices here, woudl rather find a way to mock this
+    # any notices here, would rather find a way to mock this
     @testing.only_on('postgresql+psycopg2', 'psycopg2-specific feature')
     def _test_notice_logging(self):
         log = logging.getLogger('sqlalchemy.dialects.postgresql')
index 82b49d974b5180d7dc4e25c17b222fd1786716da..064f0c37246c1dcdc7b434efc8cc2af0aba616db 100644 (file)
@@ -148,7 +148,7 @@ class InsertTest(fixtures.TestBase, AssertsExecutionResults):
 
             table.insert(inline=True).execute({'data': 'd8'})
 
-        # note that the test framework doesnt capture the "preexecute"
+        # note that the test framework doesn't capture the "preexecute"
         # of a seqeuence or default.  we just see it in the bind params.
 
         self.assert_sql(self.engine, go, [], with_sequences=[
index 1b3c44d70f360d008a3131e51e79347dd779a32d..b30847bce2e873cc24674d8c860d27b1682c7d81 100644 (file)
@@ -374,7 +374,7 @@ class TimezoneTest(fixtures.TestBase):
 
     psycopg will return a datetime with a tzinfo attached to it, if
     postgresql returns it.  python then will not let you compare a
-    datetime with a tzinfo to a datetime that doesnt have one.  this
+    datetime with a tzinfo to a datetime that doesn't have one.  this
     test illustrates two ways to have datetime types with and without
     timezone info. """
 
index 7c0ccad97854e97d7730947e9de1a2c5963eea4c..78ae40460ff968befd98d22402206b2ce9845bcd 100644 (file)
@@ -282,7 +282,7 @@ class ExecuteTest(fixtures.TestBase):
         self._test_stmt_exception_pickleable(Exception("hello world"))
 
     @testing.crashes("postgresql+psycopg2",
-                "Older versions dont support cursor pickling, newer ones do")
+                "Older versions don't support cursor pickling, newer ones do")
     @testing.fails_on("mysql+oursql",
                 "Exception doesn't come back exactly the same from pickle")
     @testing.fails_on("mysql+mysqlconnector",
index 6e21f572d50e87819b3c77091c186283b7333990..23a3b370372ac13ce6e42d4784f41bb2594ec2de 100644 (file)
@@ -143,7 +143,7 @@ class MockReconnectTest(fixtures.TestBase):
         assert not conn.closed
         assert conn.invalidated
 
-        # close shouldnt break
+        # close shouldn't break
 
         conn.close()
 
index 496aad36971c116a51f7527852e9e9fed415b6f3..e2c2af679f8e3217a82dc3ce7b0a302a73e32d26 100644 (file)
@@ -1242,7 +1242,7 @@ class DeclarativeTest(DeclarativeTestBase):
             name = Column('name', String(50))
 
             # this is not "valid" but we want to test that Address.id
-            # doesnt get stuck into user's table
+            # doesn't get stuck into user's table
 
             adr_count = Address.id
 
index 22dd32e4561afe5a59a1b34cc282c9791b1ce0d3..57ab027e1d348db332c0e5f777484770f0fd6288 100644 (file)
@@ -151,7 +151,7 @@ class DeclarativeInheritanceTest(DeclarativeTestBase):
 
         # assert that the "id" column is available without a second
         # load. as of 0.7, the ColumnProperty tests all columns
-        # in it's list to see which is present in the row.
+        # in its list to see which is present in the row.
 
         sess.expunge_all()
 
index 1737d1ccb0f1277efbe2d97d24e65402fdf3742a..c3128d2644163bb5768bc2d67a5c09bb434f46b7 100644 (file)
@@ -1095,7 +1095,7 @@ class FlushTest(fixtures.MappedTest):
 
         # create an Admin, and append a Role.  the dependency processors
         # corresponding to the "roles" attribute for the Admin mapper and the User mapper
-        # have to ensure that two dependency processors dont fire off and insert the
+        # have to ensure that two dependency processors don't fire off and insert the
         # many to many row twice.
         a = Admin()
         a.roles.append(adminrole)
index 09c8ea7328cdf0b937b2dd94134b81a7f74bc8e7..d00da77f532b2b1e37e9475639f2622143d4abcb 100644 (file)
@@ -289,7 +289,7 @@ class EagerTest2(fixtures.MappedTest):
     def test_eager_terminate(self):
         """Eager query generation does not include the same mapper's table twice.
 
-        Or, that bi-directional eager loads dont include each other in eager
+        Or, that bi-directional eager loads don't include each other in eager
         query generation.
 
         """
index a7c67517521bf3403455c2181c4cc411aeba5e8c..ccb1effdb0f1b701320a4b3b62a8ea21a2c7b581 100644 (file)
@@ -218,7 +218,7 @@ class AttributesTest(fixtures.ORMTest):
         attributes.register_attribute(MyTest2, 'b', uselist=False,
                 useobject=False)
 
-        # shouldnt be pickling callables at the class level
+        # shouldn't be pickling callables at the class level
 
         def somecallable(state, passive):
             return None
@@ -1298,7 +1298,7 @@ class PendingBackrefTest(fixtures.ORMTest):
 
         p = Post("post 5")
 
-        # setting blog doesnt call 'posts' callable, calls with no fetch
+        # setting blog doesn't call 'posts' callable, calls with no fetch
         p.blog = b
         eq_(
             lazy_posts.mock_calls, [
index e9448d41c151c1b02f6125b81ae3e6af08d6c1e7..67f8c6c00d8eb45547d09770108bbce87cdf41ac 100644 (file)
@@ -393,7 +393,7 @@ class O2OScalarBackrefMoveTest(_fixtures.FixtureTest):
         # backref fires
         assert u1.address is a2
 
-        # didnt work this way tho
+        # didn't work this way tho
         assert a1.user is u1
 
         # moves appropriately after commit
index 1da57b050ac4c2acf54934fa95ac7cb693e9fe50..59f8198f053ed36d76c003a05cc31f5b2747397e 100644 (file)
@@ -383,7 +383,7 @@ class BiDirectionalManyToOneTest(fixtures.MappedTest):
         # the bug here is that the dependency sort comes up with T1/T2 in a
         # cycle, but there are no T1/T2 objects to be saved.  therefore no
         # "cyclical subtree" gets generated, and one or the other of T1/T2
-        # gets lost, and processors on T3 dont fire off.  the test will then
+        # gets lost, and processors on T3 don't fire off.  the test will then
         # fail because the FK's on T3 are not nullable.
         o3 = T3()
         o3.t1 = o1
@@ -592,7 +592,7 @@ class OneToManyManyToOneTest(fixtures.MappedTest):
 
     def test_cycle(self):
         """
-        This test has a peculiar aspect in that it doesnt create as many
+        This test has a peculiar aspect in that it doesn't create as many
         dependent relationships as the other tests, and revealed a small
         glitch in the circular dependency sorting.
 
index 88e7e866332840c1309ba2729aea377289c88676..d96d420e7e86ba5459d332ea0c98d8f445ccf2f2 100644 (file)
@@ -80,7 +80,7 @@ class DeferredTest(AssertsCompiledSQL, _fixtures.FixtureTest):
         self.sql_count_(0, go)
 
     def test_unsaved_group(self):
-        """Deferred loading doesnt kick in when just PK cols are set"""
+        """Deferred loading doesn't kick in when just PK cols are set"""
 
         orders, Order = self.tables.orders, self.classes.Order
 
@@ -204,7 +204,7 @@ class DeferredTest(AssertsCompiledSQL, _fixtures.FixtureTest):
         assert o2 not in sess.dirty
         # this will mark it as 'dirty', but nothing actually changed
         o2.description = 'order 3'
-        # therefore the flush() shouldnt actually issue any SQL
+        # therefore the flush() shouldn't actually issue any SQL
         self.assert_sql_count(testing.db, sess.flush, 0)
 
     def test_map_selectable_wo_deferred(self):
index edd2431818b95ba666618b0c84341b92f13d9178..150a1cb27632c9ddaf4a169ca58842e42bdccde0 100644 (file)
@@ -46,7 +46,7 @@ class ExpireTest(_fixtures.FixtureTest):
         # change the value in the DB
         users.update(users.c.id==7, values=dict(name='jack')).execute()
         sess.expire(u)
-        # object isnt refreshed yet, using dict to bypass trigger
+        # object isn't refreshed yet, using dict to bypass trigger
         assert u.__dict__.get('name') != 'jack'
         assert 'name' in attributes.instance_state(u).expired_attributes
 
@@ -666,7 +666,7 @@ class ExpireTest(_fixtures.FixtureTest):
         assert 'addresses' not in u.__dict__
 
         # hit the lazy loader.  just does the lazy load,
-        # doesnt do the overall refresh
+        # doesn't do the overall refresh
         def go():
             assert u.addresses[0].email_address=='ed@wood.com'
         self.assert_sql_count(testing.db, go, 1)
@@ -1394,7 +1394,7 @@ class RefreshTest(_fixtures.FixtureTest):
 
     def test_refresh_with_lazy(self):
         """test that when a lazy loader is set as a trigger on an object's attribute
-        (at the attribute level, not the class level), a refresh() operation doesnt
+        (at the attribute level, not the class level), a refresh() operation doesn't
         fire the lazy loader or create any problems"""
 
         User, Address, addresses, users = (self.classes.User,
index fd4bef71a44e8d5bbfb5548890f636b0f633580d..64e98e74568a6f11c921a653d81ab27097f9c317 100644 (file)
@@ -2408,8 +2408,8 @@ class TestOverlyEagerEquivalentCols(fixtures.MappedTest):
         sess.add(b2)
         sess.flush()
 
-        # theres an overlapping ForeignKey here, so not much option except
-        # to artifically control the flush order
+        # there's an overlapping ForeignKey here, so not much option except
+        # to artificially control the flush order
         b2.sub2 = [s2]
         sess.flush()
 
index 32126e0dda7bdd9159f0772aac221c0bbff347be..78f563b7023fe284564fc4599c01e528003256bc 100644 (file)
@@ -65,7 +65,7 @@ class MapperTest(_fixtures.FixtureTest, AssertsCompiledSQL):
             x = "something"
             @property
             def y(self):
-                return "somethign else"
+                return "something else"
 
 
         m = mapper(Foo, users, properties={"addresses":relationship(Address)})
@@ -102,7 +102,7 @@ class MapperTest(_fixtures.FixtureTest, AssertsCompiledSQL):
             x = "something"
             @property
             def y(self):
-                return "somethign else"
+                return "something else"
         m = mapper(Foo, users)
         a1 = aliased(Foo)
 
index 494f5e349baee029d73aad2b11ac5e9d56fbbcf4..a52274896b882734492b401a1d0ab690e8583754 100644 (file)
@@ -748,7 +748,7 @@ class MergeTest(_fixtures.FixtureTest):
         'converted' to represent the correct objects.  However, at the
         moment I'd rather not support this use case; if you are merging
         with load=False, you're typically dealing with caching and the
-        merged objects shouldnt be 'dirty'.
+        merged objects shouldn't be 'dirty'.
 
         """
 
@@ -782,7 +782,7 @@ class MergeTest(_fixtures.FixtureTest):
         self.assert_sql_count(testing.db, go, 0)
 
     def test_no_load_disallows_dirty(self):
-        """load=False doesnt support 'dirty' objects right now
+        """load=False doesn't support 'dirty' objects right now
 
         (see test_no_load_with_eager()). Therefore lets assert it.
 
@@ -899,7 +899,7 @@ class MergeTest(_fixtures.FixtureTest):
             'somenewaddress')
 
         # this use case is not supported; this is with a pending Address
-        # on the pre-merged object, and we currently dont support
+        # on the pre-merged object, and we currently don't support
         # 'dirty' objects being merged with load=False.  in this case,
         # the empty '_state.parents' collection would be an issue, since
         # the optimistic flag is False in _is_orphan() for pending
index 8c675b94d947647b779daff6e03d5fca7053c5b3..011667651c8eb5e68f640dece1c6292f2fe255d6 100644 (file)
@@ -108,7 +108,7 @@ class NaturalPKTest(fixtures.MappedTest):
         users.update(values={User.username:'jack'}).execute(username='ed')
 
         # expire/refresh works off of primary key.  the PK is gone
-        # in this case so theres no way to look it up.  criterion-
+        # in this case so there's no way to look it up.  criterion-
         # based session invalidation could solve this [ticket:911]
         sess.expire(u1)
         assert_raises(sa.orm.exc.ObjectDeletedError, getattr, u1, 'username')
index 3b483b7c052161a79504dfdfdf3484321467325a..bb731db5cda6fd3ed249772cc8de214d2cbb8ba9 100644 (file)
@@ -550,7 +550,7 @@ class GetTest(QueryTest):
 
         u.addresses[0].email_address = 'lala'
         u.orders[1].items[2].description = 'item 12'
-        # test that lazy load doesnt change child items
+        # test that lazy load doesn't change child items
         s.query(User).populate_existing().all()
         assert u.addresses[0].email_address == 'lala'
         assert u.orders[1].items[2].description == 'item 12'
@@ -1383,7 +1383,7 @@ class FilterTest(QueryTest, AssertsCompiledSQL):
         assert [Address(id=2), Address(id=3), Address(id=4)] == \
             sess.query(Address).join("user").filter(Address.user.has(User.name.like('%ed%'), id=8)).order_by(Address.id).all()
 
-        # test has() doesnt' get subquery contents adapted by aliased join
+        # test has() doesn't get subquery contents adapted by aliased join
         assert [Address(id=2), Address(id=3), Address(id=4)] == \
             sess.query(Address).join("user", aliased=True).filter(Address.user.has(User.name.like('%ed%'), id=8)).order_by(Address.id).all()
 
index b68810036e72fdf509699b7fbb7e5f26ef757eb3..186b7a781ae1e4aedd05276388ad6fa61be4b02b 100644 (file)
@@ -895,7 +895,7 @@ class SessionStateWFixtureTest(_fixtures.FixtureTest):
         assert len(u.addresses) == 3
 
         assert newad not in u.addresses
-        # pending objects dont get expired
+        # pending objects don't get expired
         assert newad.email_address == 'a new address'
 
     def test_expunge_cascade(self):
index 4776e29885ef707495663903e25452f4db997a97..ada2e6c6f847d4d0b2ce4c720cc6ae48cd1b8934 100644 (file)
@@ -1310,7 +1310,7 @@ class SaveTest(_fixtures.FixtureTest):
         session.add_all((u, u2))
         session.flush()
 
-        # assert the first one retreives the same from the identity map
+        # assert the first one retrieves the same from the identity map
         nu = session.query(m).get(u.id)
         assert u is nu
 
@@ -1430,7 +1430,7 @@ class SaveTest(_fixtures.FixtureTest):
         mapper(Order, orders, properties={
             'description': sa.orm.deferred(orders.c.description)})
 
-        # dont set deferred attribute, commit session
+        # don't set deferred attribute, commit session
         o = Order(id=42)
         session = create_session(autocommit=False)
         session.add(o)
index a7e6636abe0b37813282c6a2e18bb1a0ed04b368..7a6dc106e8db0aa9db4b684c0d0aee6879eeb6b4 100644 (file)
@@ -90,7 +90,7 @@ class VersioningTest(fixtures.MappedTest):
         else:
             s1.commit()
 
-        # new in 0.5 !  dont need to close the session
+        # new in 0.5 !  don't need to close the session
         f1 = s1.query(Foo).get(f1.id)
         f2 = s1.query(Foo).get(f2.id)
 
index b1c807df69b2f6fe1840462d2502565a1ebbec83..e96990c610b2cfb40f9a60f6fa8caff8e6200760 100644 (file)
@@ -1701,7 +1701,7 @@ class SelectTest(fixtures.TestBase, AssertsCompiledSQL):
                         expected_test_params_list
                 )
 
-        # check that params() doesnt modify original statement
+        # check that params() doesn't modify original statement
         s = select([table1], or_(table1.c.myid == bindparam('myid'),
                                     table2.c.otherid ==
                                         bindparam('myotherid')))
index 7fd7058b5ba7a27ae067f5919cad8fdbc4f1b481..87c102a21a62becfbbd1393e94b4d84874e7cbce 100644 (file)
@@ -411,7 +411,7 @@ class ExecuteTest(fixtures.TestBase):
 
     @testing.fails_on_everything_except('postgresql')
     def test_as_from(self):
-        # TODO: shouldnt this work on oracle too ?
+        # TODO: shouldn't this work on oracle too ?
         x = func.current_date(bind=testing.db).execute().scalar()
         y = func.current_date(bind=testing.db).select().execute().scalar()
         z = func.current_date(bind=testing.db).scalar()
index 5a65cecef50e85fe0140dd83a06d56e2c8d9bd7c..8a366f7576ca9b2523f5ba59296aa50cded46e66 100644 (file)
@@ -18,7 +18,7 @@ class TraversalTest(fixtures.TestBase, AssertsExecutionResults):
     def setup_class(cls):
         global A, B
 
-        # establish two ficticious ClauseElements.
+        # establish two fictitious ClauseElements.
         # define deep equality semantics as well as deep
         # identity semantics.
         class A(ClauseElement):
index e4047872d468a7623c936742127e83faa397bd58..c078babff1e9402b4f9f066bcbec0e86bfdc52e6 100644 (file)
@@ -541,7 +541,7 @@ class ToMetaDataTest(fixtures.TestBase, ComparesTables):
                                    table_c.c.bar.onupdate.arg) == 'z'
                     assert isinstance(table2_c.c.id.default, Sequence)
 
-                # constraints dont get reflected for any dialect right
+                # constraints don't get reflected for any dialect right
                 # now
 
                 if has_constraints:
index a5693acd3b46d13fb93f7d10700c58a5b6dfb677..ed97bb37f03b878591a0d7702745d74e78f63e9b 100644 (file)
@@ -216,7 +216,7 @@ class SelectableTest(fixtures.TestBase, AssertsExecutionResults, AssertsCompiled
         jj = select([table1.c.col1.label('bar_col1')])
         jjj = join(table1, jj, table1.c.col1 == jj.c.bar_col1)
 
-        # test column directly agaisnt itself
+        # test column directly against itself
 
         assert jjj.corresponding_column(jjj.c.table1_col1) \
             is jjj.c.table1_col1
index ef63f9daad2d3e7761378e3489ca1115c6fa8d4c..98eff7604e03d42d6b6e42592824895fadec0cee 100644 (file)
@@ -63,7 +63,7 @@ class SelectCompositionTest(fixtures.TestBase, AssertsCompiledSQL):
         )
 
     def test_select_composition_four(self):
-        # test that use_labels doesnt interfere with literal columns
+        # test that use_labels doesn't interfere with literal columns
         self.assert_compile(
             select(["column1", "column2", table1.c.myid], from_obj=table1,
                         use_labels=True),
@@ -72,7 +72,7 @@ class SelectCompositionTest(fixtures.TestBase, AssertsCompiledSQL):
         )
 
     def test_select_composition_five(self):
-        # test that use_labels doesnt interfere
+        # test that use_labels doesn't interfere
         # with literal columns that have textual labels
         self.assert_compile(
             select(["column1 AS foobar", "column2 AS hoho", table1.c.myid],
@@ -83,8 +83,8 @@ class SelectCompositionTest(fixtures.TestBase, AssertsCompiledSQL):
 
     def test_select_composition_six(self):
         # test that "auto-labeling of subquery columns"
-        # doesnt interfere with literal columns,
-        # exported columns dont get quoted
+        # doesn't interfere with literal columns,
+        # exported columns don't get quoted
         self.assert_compile(
             select(["column1 AS foobar", "column2 AS hoho", table1.c.myid],
                             from_obj=[table1]).select(),
index e887e2a7ec7cc32b2121826ae9a00e98ed0d6439..19be4466d9efb94b91282982d12b3d0a083f4bb7 100644 (file)
@@ -571,7 +571,7 @@ class TypeCoerceCastTest(fixtures.TablesTest):
         MyType = self.MyType
 
         # test coerce from nulltype - e.g. use an object that
-        # doens't match to a known type
+        # does't match to a known type
         class MyObj(object):
             def __str__(self):
                 return "THISISMYOBJ"