]> git.ipfire.org Git - thirdparty/sqlalchemy/sqlalchemy.git/commitdiff
just a pep8 pass of lib/sqlalchemy/dialects/postgresql
authorDiana Clarke <diana.joan.clarke@gmail.com>
Tue, 20 Nov 2012 03:28:52 +0000 (22:28 -0500)
committerDiana Clarke <diana.joan.clarke@gmail.com>
Tue, 20 Nov 2012 03:28:52 +0000 (22:28 -0500)
lib/sqlalchemy/dialects/postgresql/base.py
lib/sqlalchemy/dialects/postgresql/hstore.py
lib/sqlalchemy/dialects/postgresql/pg8000.py
lib/sqlalchemy/dialects/postgresql/psycopg2.py
lib/sqlalchemy/dialects/postgresql/pypostgresql.py
lib/sqlalchemy/dialects/postgresql/zxjdbc.py

index f1061c90b95d482f4c64950d025d5eff062bdd7c..c7e84751d864ae642cf76f14afd0295d8145701b 100644 (file)
@@ -154,9 +154,10 @@ Operator Classes
 ^^^^^^^^^^^^^^^^^
 
 PostgreSQL allows the specification of an *operator class* for each column of
-an index (see http://www.postgresql.org/docs/8.3/interactive/indexes-opclass.html).
-The :class:`.Index` construct allows these to be specified via the ``postgresql_ops``
-keyword argument::
+an index (see
+http://www.postgresql.org/docs/8.3/interactive/indexes-opclass.html).
+The :class:`.Index` construct allows these to be specified via the
+``postgresql_ops`` keyword argument::
 
     Index('my_index', my_table.c.id, my_table.c.data,
                             postgresql_ops={
@@ -168,15 +169,15 @@ keyword argument::
     ``postgresql_ops`` keyword argument to :class:`.Index` construct.
 
 Note that the keys in the ``postgresql_ops`` dictionary are the "key" name of
-the :class:`.Column`, i.e. the name used to access it from the ``.c`` collection
-of :class:`.Table`, which can be configured to be different than the actual
-name of the column as expressed in the database.
+the :class:`.Column`, i.e. the name used to access it from the ``.c``
+collection of :class:`.Table`, which can be configured to be different than
+the actual name of the column as expressed in the database.
 
 Index Types
 ^^^^^^^^^^^^
 
-PostgreSQL provides several index types: B-Tree, Hash, GiST, and GIN, as well as
-the ability for users to create their own (see
+PostgreSQL provides several index types: B-Tree, Hash, GiST, and GIN, as well
+as the ability for users to create their own (see
 http://www.postgresql.org/docs/8.3/static/indexes-types.html). These can be
 specified on :class:`.Index` using the ``postgresql_using`` keyword argument::
 
@@ -226,24 +227,30 @@ _DECIMAL_TYPES = (1231, 1700)
 _FLOAT_TYPES = (700, 701, 1021, 1022)
 _INT_TYPES = (20, 21, 23, 26, 1005, 1007, 1016)
 
+
 class BYTEA(sqltypes.LargeBinary):
     __visit_name__ = 'BYTEA'
 
+
 class DOUBLE_PRECISION(sqltypes.Float):
     __visit_name__ = 'DOUBLE_PRECISION'
 
+
 class INET(sqltypes.TypeEngine):
     __visit_name__ = "INET"
 PGInet = INET
 
+
 class CIDR(sqltypes.TypeEngine):
     __visit_name__ = "CIDR"
 PGCidr = CIDR
 
+
 class MACADDR(sqltypes.TypeEngine):
     __visit_name__ = "MACADDR"
 PGMacAddr = MACADDR
 
+
 class TIMESTAMP(sqltypes.TIMESTAMP):
     def __init__(self, timezone=False, precision=None):
         super(TIMESTAMP, self).__init__(timezone=timezone)
@@ -255,6 +262,7 @@ class TIME(sqltypes.TIME):
         super(TIME, self).__init__(timezone=timezone)
         self.precision = precision
 
+
 class INTERVAL(sqltypes.TypeEngine):
     """Postgresql INTERVAL type.
 
@@ -263,6 +271,7 @@ class INTERVAL(sqltypes.TypeEngine):
 
     """
     __visit_name__ = 'INTERVAL'
+
     def __init__(self, precision=None):
         self.precision = precision
 
@@ -276,8 +285,10 @@ class INTERVAL(sqltypes.TypeEngine):
 
 PGInterval = INTERVAL
 
+
 class BIT(sqltypes.TypeEngine):
     __visit_name__ = 'BIT'
+
     def __init__(self, length=None, varying=False):
         if not varying:
             # BIT without VARYING defaults to length 1
@@ -289,6 +300,7 @@ class BIT(sqltypes.TypeEngine):
 
 PGBit = BIT
 
+
 class UUID(sqltypes.TypeEngine):
     """Postgresql UUID type.
 
@@ -313,8 +325,8 @@ class UUID(sqltypes.TypeEngine):
          """
         if as_uuid and _python_UUID is None:
             raise NotImplementedError(
-                    "This version of Python does not support the native UUID type."
-                )
+                "This version of Python does not support the native UUID type."
+            )
         self.as_uuid = as_uuid
 
     def bind_processor(self, dialect):
@@ -339,9 +351,11 @@ class UUID(sqltypes.TypeEngine):
 
 PGUuid = UUID
 
+
 class _Slice(expression.ColumnElement):
     __visit_name__ = 'slice'
     type = sqltypes.NULLTYPE
+
     def __init__(self, slice_, source_comparator):
         self.start = source_comparator._check_literal(
                             source_comparator.expr,
@@ -350,6 +364,7 @@ class _Slice(expression.ColumnElement):
                             source_comparator.expr,
                             operators.getitem, slice_.stop)
 
+
 class array(expression.Tuple):
     """A Postgresql ARRAY literal.
 
@@ -399,6 +414,7 @@ class array(expression.Tuple):
     def self_group(self, against):
         return self
 
+
 class ARRAY(sqltypes.Concatenable, sqltypes.TypeEngine):
     """Postgresql ARRAY type.
 
@@ -436,8 +452,8 @@ class ARRAY(sqltypes.Concatenable, sqltypes.TypeEngine):
     to optimize itself to expect exactly that number of dimensions.
     Note that Postgresql itself still allows N dimensions with such a type.
 
-    SQL expressions of type :class:`.ARRAY` have support for "index" and "slice"
-    behavior.  The Python ``[]`` operator works normally here, given
+    SQL expressions of type :class:`.ARRAY` have support for "index" and
+    "slice" behavior.  The Python ``[]`` operator works normally here, given
     integer indexes or slices.  Note that Postgresql arrays default
     to 1-based indexing.  The operator produces binary expression
     constructs which will produce the appropriate SQL, both for
@@ -539,6 +555,7 @@ class ARRAY(sqltypes.Concatenable, sqltypes.TypeEngine):
         item_proc = self.item_type.\
                         dialect_impl(dialect).\
                         bind_processor(dialect)
+
         def process(value):
             if value is None:
                 return value
@@ -554,6 +571,7 @@ class ARRAY(sqltypes.Concatenable, sqltypes.TypeEngine):
         item_proc = self.item_type.\
                         dialect_impl(dialect).\
                         result_processor(dialect, coltype)
+
         def process(value):
             if value is None:
                 return value
@@ -567,6 +585,7 @@ class ARRAY(sqltypes.Concatenable, sqltypes.TypeEngine):
 
 PGArray = ARRAY
 
+
 class ENUM(sqltypes.Enum):
     """Postgresql ENUM type.
 
@@ -703,45 +722,44 @@ class ENUM(sqltypes.Enum):
             self.drop(bind=bind, checkfirst=checkfirst)
 
 colspecs = {
-    sqltypes.Interval:INTERVAL,
-    sqltypes.Enum:ENUM,
+    sqltypes.Interval: INTERVAL,
+    sqltypes.Enum: ENUM,
 }
 
 ischema_names = {
-    'integer' : INTEGER,
-    'bigint' : BIGINT,
-    'smallint' : SMALLINT,
-    'character varying' : VARCHAR,
-    'character' : CHAR,
-    '"char"' : sqltypes.String,
-    'name' : sqltypes.String,
-    'text' : TEXT,
-    'numeric' : NUMERIC,
-    'float' : FLOAT,
-    'real' : REAL,
+    'integer': INTEGER,
+    'bigint': BIGINT,
+    'smallint': SMALLINT,
+    'character varying': VARCHAR,
+    'character': CHAR,
+    '"char"': sqltypes.String,
+    'name': sqltypes.String,
+    'text': TEXT,
+    'numeric': NUMERIC,
+    'float': FLOAT,
+    'real': REAL,
     'inet': INET,
     'cidr': CIDR,
     'uuid': UUID,
     'bit': BIT,
     'bit varying': BIT,
     'macaddr': MACADDR,
-    'double precision' : DOUBLE_PRECISION,
-    'timestamp' : TIMESTAMP,
-    'timestamp with time zone' : TIMESTAMP,
-    'timestamp without time zone' : TIMESTAMP,
-    'time with time zone' : TIME,
-    'time without time zone' : TIME,
-    'date' : DATE,
+    'double precision': DOUBLE_PRECISION,
+    'timestamp': TIMESTAMP,
+    'timestamp with time zone': TIMESTAMP,
+    'timestamp without time zone': TIMESTAMP,
+    'time with time zone': TIME,
+    'time without time zone': TIME,
+    'date': DATE,
     'time': TIME,
-    'bytea' : BYTEA,
-    'boolean' : BOOLEAN,
-    'interval':INTERVAL,
-    'interval year to month':INTERVAL,
-    'interval day to second':INTERVAL,
+    'bytea': BYTEA,
+    'boolean': BOOLEAN,
+    'interval': INTERVAL,
+    'interval year to month': INTERVAL,
+    'interval day to second': INTERVAL,
 }
 
 
-
 class PGCompiler(compiler.SQLCompiler):
 
     def visit_array(self, element, **kw):
@@ -814,7 +832,7 @@ class PGCompiler(compiler.SQLCompiler):
             elif isinstance(select._distinct, (list, tuple)):
                 return "DISTINCT ON (" + ', '.join(
                     [self.process(col) for col in select._distinct]
-                )+ ") "
+                ) + ") "
             else:
                 return "DISTINCT ON (" + self.process(select._distinct) + ") "
         else:
@@ -861,6 +879,7 @@ class PGCompiler(compiler.SQLCompiler):
         return "EXTRACT(%s FROM %s)" % (
             field, self.process(expr))
 
+
 class PGDDLCompiler(compiler.DDLCompiler):
     def get_column_specification(self, column, **kwargs):
         colspec = self.preparer.format_column(column)
@@ -1046,6 +1065,7 @@ class PGIdentifierPreparer(compiler.IdentifierPreparer):
             name = self.quote_schema(type_.schema, type_.quote) + "." + name
         return name
 
+
 class PGInspector(reflection.Inspector):
 
     def __init__(self, conn):
@@ -1057,11 +1077,14 @@ class PGInspector(reflection.Inspector):
         return self.dialect.get_table_oid(self.bind, table_name, schema,
                                           info_cache=self.info_cache)
 
+
 class CreateEnumType(schema._CreateDropBase):
-  __visit_name__ = "create_enum_type"
+    __visit_name__ = "create_enum_type"
+
 
 class DropEnumType(schema._CreateDropBase):
-  __visit_name__ = "drop_enum_type"
+    __visit_name__ = "drop_enum_type"
+
 
 class PGExecutionContext(default.DefaultExecutionContext):
     def fire_sequence(self, seq, type_):
@@ -1091,7 +1114,8 @@ class PGExecutionContext(default.DefaultExecutionContext):
                     col = column.name
                     tab = tab[0:29 + max(0, (29 - len(col)))]
                     col = col[0:29 + max(0, (29 - len(tab)))]
-                    column._postgresql_seq_name = seq_name = "%s_%s_seq" % (tab, col)
+                    name = "%s_%s_seq" % (tab, col)
+                    column._postgresql_seq_name = seq_name = name
 
                 sch = column.table.schema
                 if sch is not None:
@@ -1105,6 +1129,7 @@ class PGExecutionContext(default.DefaultExecutionContext):
 
         return super(PGExecutionContext, self).get_insert_default(column)
 
+
 class PGDialect(default.DefaultDialect):
     name = 'postgresql'
     supports_alter = True
@@ -1226,9 +1251,10 @@ class PGDialect(default.DefaultDialect):
         return connection.scalar("select current_schema()")
 
     def has_schema(self, connection, schema):
+        query = "select nspname from pg_namespace where lower(nspname)=:schema"
         cursor = connection.execute(
             sql.text(
-                "select nspname from pg_namespace where lower(nspname)=:schema",
+                query,
                 bindparams=[
                     sql.bindparam(
                         'schema', unicode(schema.lower()),
@@ -1365,7 +1391,7 @@ class PGDialect(default.DefaultDialect):
             sql.bindparam('table_name', type_=sqltypes.Unicode),
             sql.bindparam('schema', type_=sqltypes.Unicode)
             ],
-            typemap={'oid':sqltypes.Integer}
+            typemap={'oid': sqltypes.Integer}
         )
         c = connection.execute(s, table_name=table_name, schema=schema)
         table_oid = c.scalar()
@@ -1404,12 +1430,11 @@ class PGDialect(default.DefaultDialect):
                 "AND '%s' = (select nspname from pg_namespace n "
                 "where n.oid = c.relnamespace) " %
                 current_schema,
-                typemap = {'relname':sqltypes.Unicode}
+                typemap={'relname': sqltypes.Unicode}
             )
         )
         return [row[0] for row in result]
 
-
     @reflection.cache
     def get_view_names(self, connection, schema=None, **kw):
         if schema is not None:
@@ -1484,8 +1509,8 @@ class PGDialect(default.DefaultDialect):
         # format columns
         columns = []
         for name, format_type, default, notnull, attnum, table_oid in rows:
-            column_info = self._get_column_info(name, format_type, default,
-                                                notnull, domains, enums, schema)
+            column_info = self._get_column_info(
+                name, format_type, default, notnull, domains, enums, schema)
             columns.append(column_info)
         return columns
 
@@ -1670,8 +1695,8 @@ class PGDialect(default.DefaultDialect):
         """
 
         t = sql.text(FK_SQL, typemap={
-                                'conname':sqltypes.Unicode,
-                                'condef':sqltypes.Unicode})
+                                'conname': sqltypes.Unicode,
+                                'condef': sqltypes.Unicode})
         c = connection.execute(t, table=table_oid)
         fkeys = []
         for conname, condef, conschema in c.fetchall():
@@ -1697,11 +1722,11 @@ class PGDialect(default.DefaultDialect):
             referred_columns = [preparer._unquote_identifier(x)
                         for x in re.split(r'\s*,\s', referred_columns)]
             fkey_d = {
-                'name' : conname,
-                'constrained_columns' : constrained_columns,
-                'referred_schema' : referred_schema,
-                'referred_table' : referred_table,
-                'referred_columns' : referred_columns
+                'name': conname,
+                'constrained_columns': constrained_columns,
+                'referred_schema': referred_schema,
+                'referred_table': referred_table,
+                'referred_columns': referred_columns
             }
             fkeys.append(fkey_d)
         return fkeys
@@ -1732,7 +1757,7 @@ class PGDialect(default.DefaultDialect):
               i.relname
         """
 
-        t = sql.text(IDX_SQL, typemap={'attname':sqltypes.Unicode})
+        t = sql.text(IDX_SQL, typemap={'attname': sqltypes.Unicode})
         c = connection.execute(t, table_oid=table_oid)
 
         index_names = {}
@@ -1756,7 +1781,7 @@ class PGDialect(default.DefaultDialect):
             if idx_name in index_names:
                 index_d = index_names[idx_name]
             else:
-                index_d = {'column_names':[]}
+                index_d = {'column_names': []}
                 indexes.append(index_d)
                 index_names[idx_name] = index_d
             index_d['name'] = idx_name
@@ -1785,8 +1810,8 @@ class PGDialect(default.DefaultDialect):
         """
 
         s = sql.text(SQL_ENUMS, typemap={
-                                'attname':sqltypes.Unicode,
-                                'label':sqltypes.Unicode})
+                                'attname': sqltypes.Unicode,
+                                'label': sqltypes.Unicode})
         c = connection.execute(s)
 
         enums = {}
@@ -1823,7 +1848,7 @@ class PGDialect(default.DefaultDialect):
             WHERE t.typtype = 'd'
         """
 
-        s = sql.text(SQL_DOMAINS, typemap={'attname':sqltypes.Unicode})
+        s = sql.text(SQL_DOMAINS, typemap={'attname': sqltypes.Unicode})
         c = connection.execute(s)
 
         domains = {}
@@ -1840,10 +1865,9 @@ class PGDialect(default.DefaultDialect):
                 name = "%s.%s" % (domain['schema'], domain['name'])
 
             domains[name] = {
-                    'attype':attype,
+                    'attype': attype,
                     'nullable': domain['nullable'],
                     'default': domain['default']
                 }
 
         return domains
-
index c20b23038483e020bde3ee8bbacc6c0a999166a3..8ac65b9126c175feaec7a641dd347ff7b6620d42 100644 (file)
@@ -32,7 +32,6 @@ HSTORE_DELIMITER_RE = re.compile(r"""
 """, re.VERBOSE)
 
 
-
 def _parse_error(hstore_str, pos):
     """format an unmarshalling error."""
 
index 6a7c5cecb7db9ce9f8e3964fe6480d16847a4cbc..d016bf7e1175635791dc8d9a88e6bbbdcf934063 100644 (file)
@@ -34,6 +34,7 @@ from .base import PGDialect, \
                 PGCompiler, PGIdentifierPreparer, PGExecutionContext,\
                 _DECIMAL_TYPES, _FLOAT_TYPES, _INT_TYPES
 
+
 class _PGNumeric(sqltypes.Numeric):
     def result_processor(self, dialect, coltype):
         if self.asdecimal:
@@ -60,6 +61,7 @@ class _PGNumericNoBind(_PGNumeric):
     def bind_processor(self, dialect):
         return None
 
+
 class PGExecutionContext_pg8000(PGExecutionContext):
     pass
 
@@ -71,7 +73,8 @@ class PGCompiler_pg8000(PGCompiler):
 
     def post_process_text(self, text):
         if '%%' in text:
-            util.warn("The SQLAlchemy postgresql dialect now automatically escapes '%' in text() "
+            util.warn("The SQLAlchemy postgresql dialect "
+                      "now automatically escapes '%' in text() "
                       "expressions to '%%'.")
         return text.replace('%', '%%')
 
@@ -99,8 +102,8 @@ class PGDialect_pg8000(PGDialect):
     colspecs = util.update_copy(
         PGDialect.colspecs,
         {
-            sqltypes.Numeric : _PGNumericNoBind,
-            sqltypes.Float : _PGNumeric
+            sqltypes.Numeric: _PGNumericNoBind,
+            sqltypes.Float: _PGNumeric
         }
     )
 
index 73f7123287083a0c08c8d600c445c04c749469fb..ebac014db80eae987e993c8018a692e42c42c7e7 100644 (file)
@@ -59,11 +59,12 @@ The following DBAPI-specific options are respected when used with
 :meth:`.Query.execution_options`, in addition to those not specific to DBAPIs:
 
 * isolation_level - Set the transaction isolation level for the lifespan of a
-  :class:`.Connection` (can only be set on a connection, not a statement or query).
-  This includes the options ``SERIALIZABLE``, ``READ COMMITTED``,
+  :class:`.Connection` (can only be set on a connection, not a statement
+  or query). This includes the options ``SERIALIZABLE``, ``READ COMMITTED``,
   ``READ UNCOMMITTED`` and ``REPEATABLE READ``.
 * stream_results - Enable or disable usage of server side cursors.
-  If ``None`` or not set, the ``server_side_cursors`` option of the :class:`.Engine` is used.
+  If ``None`` or not set, the ``server_side_cursors`` option of the
+  :class:`.Engine` is used.
 
 Unicode
 -------
@@ -91,13 +92,14 @@ on all new connections based on the value passed to
 This overrides the encoding specified in the Postgresql client configuration.
 
 .. versionadded:: 0.7.3
-    The psycopg2-specific ``client_encoding`` parameter to :func:`.create_engine`.
+    The psycopg2-specific ``client_encoding`` parameter to
+    :func:`.create_engine`.
 
 SQLAlchemy can also be instructed to skip the usage of the psycopg2
 ``UNICODE`` extension and to instead utilize it's own unicode encode/decode
 services, which are normally reserved only for those DBAPIs that don't
-fully support unicode directly.  Passing ``use_native_unicode=False``
-to :func:`.create_engine` will disable usage of ``psycopg2.extensions.UNICODE``.
+fully support unicode directly.  Passing ``use_native_unicode=False`` to
+:func:`.create_engine` will disable usage of ``psycopg2.extensions.UNICODE``.
 SQLAlchemy will instead encode data itself into Python bytestrings on the way
 in and coerce from bytes on the way back,
 using the value of the :func:`.create_engine` ``encoding`` parameter, which
@@ -184,6 +186,7 @@ class _PGNumeric(sqltypes.Numeric):
                 raise exc.InvalidRequestError(
                             "Unknown PG numeric type: %d" % coltype)
 
+
 class _PGEnum(ENUM):
     def __init__(self, *arg, **kw):
         super(_PGEnum, self).__init__(*arg, **kw)
@@ -192,6 +195,7 @@ class _PGEnum(ENUM):
             self.convert_unicode = "force"
         # end Py2K
 
+
 class _PGArray(ARRAY):
     def __init__(self, *arg, **kw):
         super(_PGArray, self).__init__(*arg, **kw)
@@ -203,6 +207,7 @@ class _PGArray(ARRAY):
             self.item_type.convert_unicode = "force"
         # end Py2K
 
+
 class _PGHStore(HSTORE):
     def bind_processor(self, dialect):
         if dialect._has_native_hstore:
@@ -224,6 +229,7 @@ SERVER_SIDE_CURSOR_RE = re.compile(
 
 _server_side_id = util.counter()
 
+
 class PGExecutionContext_psycopg2(PGExecutionContext):
     def create_cursor(self):
         # TODO: coverage for server side cursors + select.for_update()
@@ -240,7 +246,8 @@ class PGExecutionContext_psycopg2(PGExecutionContext):
                     )
                 )
         else:
-            is_server_side = self.execution_options.get('stream_results', False)
+            is_server_side = \
+                self.execution_options.get('stream_results', False)
 
         self.__is_server_side = is_server_side
         if is_server_side:
@@ -284,6 +291,7 @@ class PGIdentifierPreparer_psycopg2(PGIdentifierPreparer):
         value = value.replace(self.escape_quote, self.escape_to_quote)
         return value.replace('%', '%%')
 
+
 class PGDialect_psycopg2(PGDialect):
     driver = 'psycopg2'
     # Py2K
@@ -301,11 +309,11 @@ class PGDialect_psycopg2(PGDialect):
     colspecs = util.update_copy(
         PGDialect.colspecs,
         {
-            sqltypes.Numeric : _PGNumeric,
-            ENUM : _PGEnum, # needs force_unicode
-            sqltypes.Enum : _PGEnum, # needs force_unicode
-            ARRAY : _PGArray, # needs force_unicode
-            HSTORE : _PGHStore,
+            sqltypes.Numeric: _PGNumeric,
+            ENUM: _PGEnum,  # needs force_unicode
+            sqltypes.Enum: _PGEnum,  # needs force_unicode
+            ARRAY: _PGArray,  # needs force_unicode
+            HSTORE: _PGHStore,
         }
     )
 
@@ -328,7 +336,6 @@ class PGDialect_psycopg2(PGDialect):
                                             for x in m.group(1, 2, 3)
                                             if x is not None)
 
-
     def initialize(self, connection):
         super(PGDialect_psycopg2, self).initialize(connection)
         self._has_native_hstore = self.use_native_hstore and \
@@ -344,10 +351,10 @@ class PGDialect_psycopg2(PGDialect):
     def _isolation_lookup(self):
         extensions = __import__('psycopg2.extensions').extensions
         return {
-            'READ COMMITTED':extensions.ISOLATION_LEVEL_READ_COMMITTED,
-            'READ UNCOMMITTED':extensions.ISOLATION_LEVEL_READ_UNCOMMITTED,
-            'REPEATABLE READ':extensions.ISOLATION_LEVEL_REPEATABLE_READ,
-            'SERIALIZABLE':extensions.ISOLATION_LEVEL_SERIALIZABLE
+            'READ COMMITTED': extensions.ISOLATION_LEVEL_READ_COMMITTED,
+            'READ UNCOMMITTED': extensions.ISOLATION_LEVEL_READ_UNCOMMITTED,
+            'REPEATABLE READ': extensions.ISOLATION_LEVEL_REPEATABLE_READ,
+            'SERIALIZABLE': extensions.ISOLATION_LEVEL_SERIALIZABLE
         }
 
     def set_isolation_level(self, connection, level):
@@ -434,4 +441,3 @@ class PGDialect_psycopg2(PGDialect):
             return False
 
 dialect = PGDialect_psycopg2
-
index e7023610bef11b4378034060ee3165b62d41083f..879bced45c74792599640b18c6012f3d52907cc5 100644 (file)
@@ -18,6 +18,7 @@ from ... import types as sqltypes
 from .base import PGDialect, PGExecutionContext
 from ... import processors
 
+
 class PGNumeric(sqltypes.Numeric):
     def bind_processor(self, dialect):
         return processors.to_str
@@ -28,9 +29,11 @@ class PGNumeric(sqltypes.Numeric):
         else:
             return processors.to_float
 
+
 class PGExecutionContext_pypostgresql(PGExecutionContext):
     pass
 
+
 class PGDialect_pypostgresql(PGDialect):
     driver = 'pypostgresql'
 
@@ -48,8 +51,10 @@ class PGDialect_pypostgresql(PGDialect):
     colspecs = util.update_copy(
         PGDialect.colspecs,
         {
-            sqltypes.Numeric : PGNumeric,
-            sqltypes.Float: sqltypes.Float,  # prevents PGNumeric from being used
+            sqltypes.Numeric: PGNumeric,
+
+            # prevents PGNumeric from being used
+            sqltypes.Float: sqltypes.Float,
         }
     )
 
index 196d77aaaa1ff0f2df579855d2a1833631c92895..7b19872cd766ce8998e3120acb4f872bb3e5b232 100644 (file)
@@ -16,6 +16,7 @@
 from ...connectors.zxJDBC import ZxJDBCConnector
 from .base import PGDialect, PGExecutionContext
 
+
 class PGExecutionContext_zxjdbc(PGExecutionContext):
 
     def create_cursor(self):
@@ -38,6 +39,7 @@ class PGDialect_zxjdbc(ZxJDBCConnector, PGDialect):
         self.DataHandler = PostgresqlDataHandler
 
     def _get_server_version_info(self, connection):
-        return tuple(int(x) for x in connection.connection.dbversion.split('.'))
+        parts = connection.connection.dbversion.split('.')
+        return tuple(int(x) for x in parts)
 
 dialect = PGDialect_zxjdbc