]> git.ipfire.org Git - thirdparty/psycopg.git/commitdiff
chore: use Python 3.11 to conver async to sync
authorDaniele Varrazzo <daniele.varrazzo@gmail.com>
Fri, 13 Oct 2023 01:35:26 +0000 (03:35 +0200)
committerDaniele Varrazzo <daniele.varrazzo@gmail.com>
Fri, 13 Oct 2023 02:17:40 +0000 (04:17 +0200)
.github/workflows/lint.yml
psycopg_pool/psycopg_pool/null_pool.py
psycopg_pool/psycopg_pool/pool.py
tests/pool/test_pool_common.py
tests/test_connection.py
tests/test_cursor_common.py
tests/test_pipeline.py

index 3fea1c28fb2e28210b4a5e2db4207cb83249e358..2ad8b8c55ec04a478d6f16b429e71b0973a6acae 100644 (file)
@@ -22,7 +22,7 @@ jobs:
 
       - uses: actions/setup-python@v4
         with:
-          python-version: "3.10"
+          python-version: "3.11"
 
       - name: install packages to tests
         run: pip install ./psycopg[dev,test] codespell
index 1ffeceae4807f9732028c50b0635a48431b28b6d..47643bb1017cb2c8e1739feb4df64900ba5bb93a 100644 (file)
@@ -176,7 +176,7 @@ class NullConnectionPool(_BaseNullConnectionPool, ConnectionPool[CT]):
 
         Only *max_size* can be changed; *min_size* must remain 0.
         """
-        (min_size, max_size) = self._check_size(min_size, max_size)
+        min_size, max_size = self._check_size(min_size, max_size)
 
         logger.info(
             "resizing %r to min_size=%s max_size=%s", self.name, min_size, max_size
index f2fab5d265b7a78143e818b11a795792070fc730..54125fcdbb54bb16f01d4a856921d3ff43b8b7d8 100644 (file)
@@ -421,7 +421,7 @@ class ConnectionPool(Generic[CT], BasePool):
         self._sched.enter(0, None)
 
         # Stop the worker tasks
-        (workers, self._workers) = (self._workers[:], [])
+        workers, self._workers = (self._workers[:], [])
         for _ in workers:
             self.run_task(StopWorker(self))
 
@@ -435,7 +435,7 @@ class ConnectionPool(Generic[CT], BasePool):
 
         # Wait for the worker tasks to terminate
         assert self._sched_runner is not None
-        (sched_runner, self._sched_runner) = (self._sched_runner, None)
+        sched_runner, self._sched_runner = (self._sched_runner, None)
         gather(sched_runner, *workers, timeout=timeout)
 
     def __enter__(self: _Self) -> _Self:
@@ -452,7 +452,7 @@ class ConnectionPool(Generic[CT], BasePool):
 
     def resize(self, min_size: int, max_size: Optional[int] = None) -> None:
         """Change the size of the pool during runtime."""
-        (min_size, max_size) = self._check_size(min_size, max_size)
+        min_size, max_size = self._check_size(min_size, max_size)
 
         ngrow = max(0, min_size - self._min_size)
 
index ce60ea795d4c5cc66e5dddeceed420da5684e2aa..a6b152b645c9115cfb1cecbd910e59f5223d54fe 100644 (file)
@@ -213,7 +213,7 @@ def test_dead_client(pool_cls, dsn):
         results: List[int] = []
         ts = [
             spawn(worker, args=(i, timeout))
-            for (i, timeout) in enumerate([0.4, 0.4, 0.1, 0.4, 0.4])
+            for i, timeout in enumerate([0.4, 0.4, 0.1, 0.4, 0.4])
         ]
         gather(*ts)
 
index dcc38a2bc7419885708a217f0282765780f509c5..1ead1ba9de39c6032ad5e5f1dca911aace36fc06 100644 (file)
@@ -633,7 +633,7 @@ def test_transaction_param_default(conn, param):
         "select current_setting(%s), current_setting(%s)",
         [f"transaction_{param.guc}", f"default_transaction_{param.guc}"],
     )
-    (current, default) = cur.fetchone()
+    current, default = cur.fetchone()
     assert current == default
 
 
@@ -654,7 +654,7 @@ def test_set_transaction_param_implicit(conn, param, autocommit):
             "select current_setting(%s), current_setting(%s)",
             [f"transaction_{param.guc}", f"default_transaction_{param.guc}"],
         )
-        (pgval, default) = cur.fetchone()
+        pgval, default = cur.fetchone()
         if autocommit:
             assert pgval == default
         else:
index a5090f92c8e1fa6298415e70166591abaee71c1a..19cc31bbf1b802469a1c600c902ee20fb521b67f 100644 (file)
@@ -170,7 +170,7 @@ def test_query_parse_cache_size(conn):
 
     cache.cache_clear()
     ci = cache.cache_info()
-    (h0, m0) = (ci.hits, ci.misses)
+    h0, m0 = (ci.hits, ci.misses)
     tests = [
         (f"select 1 -- {'x' * 3500}", (), h0, m0 + 1),
         (f"select 1 -- {'x' * 3500}", (), h0 + 1, m0 + 1),
index a40035a3313e8ed926f9d1f7facdfa0374498100..c88475a2dd88bf78aca7603a2890fded040cefd1 100644 (file)
@@ -372,7 +372,7 @@ def test_executemany_trace(conn, trace):
     items = list(t)
     assert items[-1].type == "Terminate"
     del items[-1]
-    roundtrips = [k for (k, g) in groupby(items, key=attrgetter("direction"))]
+    roundtrips = [k for k, g in groupby(items, key=attrgetter("direction"))]
     assert roundtrips == ["F", "B"]
     assert len([i for i in items if i.type == "Sync"]) == 1
 
@@ -394,7 +394,7 @@ def test_executemany_trace_returning(conn, trace):
     items = list(t)
     assert items[-1].type == "Terminate"
     del items[-1]
-    roundtrips = [k for (k, g) in groupby(items, key=attrgetter("direction"))]
+    roundtrips = [k for k, g in groupby(items, key=attrgetter("direction"))]
     assert roundtrips == ["F", "B"] * 3
     assert items[-2].direction == "F"  # last 2 items are F B
     assert len([i for i in items if i.type == "Sync"]) == 1