doc: clarify the effect of concurrent work_mem allocations
authorBruce Momjian <[email protected]>
Tue, 26 Sep 2023 23:44:22 +0000 (19:44 -0400)
committerBruce Momjian <[email protected]>
Tue, 26 Sep 2023 23:44:22 +0000 (19:44 -0400)
Reported-by: Sami Imseih
Discussion: https://postgr.es/m/66590882-F48C-4A25-83E3-73792CF8C51F@amazon.com

Backpatch-through: 11

doc/src/sgml/config.sgml

index 90ba406e44210845b5f89fd6c1b114f913527b7d..38684af5b18864d6eb981d148d8687860a98c66f 100644 (file)
@@ -1834,9 +1834,10 @@ include_dir 'conf.d'
         (such as a sort or hash table) before writing to temporary disk files.
         If this value is specified without units, it is taken as kilobytes.
         The default value is four megabytes (<literal>4MB</literal>).
-        Note that for a complex query, several sort or hash operations might be
-        running in parallel; each operation will generally be allowed
-        to use as much memory as this value specifies before it starts
+        Note that a complex query might perform several sort and hash
+        operations at the same time, with each operation generally being
+        allowed to use as much memory as this value specifies before
+        it starts
         to write data into temporary files.  Also, several running
         sessions could be doing such operations concurrently.
         Therefore, the total memory used could be many times the value
@@ -1850,7 +1851,7 @@ include_dir 'conf.d'
        <para>
         Hash-based operations are generally more sensitive to memory
         availability than equivalent sort-based operations.  The
-        memory available for hash tables is computed by multiplying
+        memory limit for a hash table is computed by multiplying
         <varname>work_mem</varname> by
         <varname>hash_mem_multiplier</varname>.  This makes it
         possible for hash-based operations to use an amount of memory