]> git.ipfire.org Git - thirdparty/sqlalchemy/sqlalchemy.git/commitdiff
more partition doc adjustments
authorMike Bayer <mike_mp@zzzcomputing.com>
Thu, 30 Jun 2022 19:00:08 +0000 (15:00 -0400)
committerMike Bayer <mike_mp@zzzcomputing.com>
Thu, 30 Jun 2022 19:00:08 +0000 (15:00 -0400)
the partition story is not very good, this is a ton
of different options and they have to all be used
simultaenously for the common case.

Change-Id: I62963b7db1230a2670dda0ce812086f9265a3cb7

doc/build/core/connections.rst
doc/build/orm/queryguide.rst

index df2969cdfa327d42f3339888e82cc23cd087bbb3..3b6b041ee44b0a8cfb2d45abd54131877f17b7f1 100644 (file)
@@ -656,22 +656,23 @@ buffers of the given size, only fetching new rows when the buffer is empty::
         for row in result.yield_per(100):
             _process_row(row)
 
-The ``stream_results`` option is also available with the ORM.  When using the
-ORM, either the :meth:`_engine.Result.yield_per` or :meth:`_engine.Result.partitions`
-methods should be used to set the number of ORM rows to be buffered each time
-while yielding::
+The ``stream_results`` option is also available with the ORM. When using the
+ORM, the :meth:`_engine.Result.yield_per` method should be used to set the
+number of ORM rows to be buffered each time while yielding
+(:meth:`_engine.Result.partitions` uses the "yield per" value by default for
+partition size)::
 
     with orm.Session(engine) as session:
         result = session.execute(
             select(User).order_by(User_id).execution_options(stream_results=True),
         )
-        for partition in result.partitions(100):
+        for partition in result.yield_per(100).partitions():
             _process_rows(partition)
 
 
 .. note:: ORM result sets currently must make use of :meth:`_engine.Result.yield_per`
-   or :meth:`_engine.Result.partitions` in order to achieve streaming ORM results.
-   If either of these methods are not used to set the number of rows to
+   in order to achieve streaming ORM results.
+   If the method is not used to set the number of rows to
    fetch before yielding, the entire result is fetched before rows are yielded.
    This may change in a future release so that the automatic buffer size used
    by :class:`_engine.Connection` takes place for ORM results as well.
@@ -684,6 +685,13 @@ execution option::
         # process row
 
 
+.. seealso::
+
+    :ref:`orm_queryguide_yield_per` - in the :ref:`queryguide_toplevel`
+
+    :meth:`_engine.Result.partitions`
+
+
 
 .. _schema_translating:
 
index ab93fc5ae6826ebdc3e1ff36892565aa5abcf2bd..fe2a4bb7cac3193ef26b0affa29df95007c9f571 100644 (file)
@@ -1032,14 +1032,17 @@ often useful to use with a result partitioning method such as
     ...
 
 For expediency, the :meth:`_engine.Result.yield_per` method may also be used
-with an ORM-enabled result set, which will have the same effect at result
-fetching time as if the ``yield_per`` execution option were used. The
-:meth:`_engine.Result.partitions` method, if used, automatically uses the
-number sent to :meth:`_engine.Result.yield_per` as the number of rows in each
-partition::
+with an ORM-enabled result set, which will have the similar effect at result
+fetching time as if the ``yield_per`` execution option were used, with the
+exception that ``stream_results`` option, described below, is not set
+automatically. The :meth:`_engine.Result.partitions` method, if used,
+automatically uses the number sent to :meth:`_engine.Result.yield_per` as the
+number of rows in each partition::
 
     >>> stmt = select(User)
-    {sql}>>> for partition in session.execute(stmt).yield_per(10).partitions():
+    {sql} >>> for partition in session.execute(
+    ...          stmt, execution_options={"stream_results": True}
+    ...       ).yield_per(10).partitions():
     ...     for row in partition:
     ...         print(row)
     SELECT user_account.id, user_account.name, user_account.fullname