问题:在Python中释放内存
在以下示例中,我有一些有关内存使用的相关问题。
如果我在解释器中运行,
foo = ['bar' for _ in xrange(10000000)]
我的机器上使用的实际内存最高为
80.9mb
。那我del foo
实际内存下降,但仅限于
30.4mb
。解释器使用4.4mb
基线,因此不26mb
向OS 释放内存有什么好处?是因为Python在“提前计划”,以为您可能会再次使用那么多的内存?它为什么
50.5mb
特别释放- 释放的量基于什么?有没有一种方法可以强制Python释放所有已使用的内存(如果您知道不会再使用那么多的内存)?
注意
此问题不同于我如何在Python中显式释放内存?
因为这个问题主要解决了内存使用量相对于基线的增加,即使解释器通过垃圾回收(使用gc.collect
或不使用)释放了对象之后。
回答 0
堆上分配的内存可能会出现高水位标记。Python PyObject_Malloc
在4个KiB池中分配小对象()的内部优化使情况复杂化,分类为8字节倍数的分配大小-最多256字节(3.3中为512字节)。池本身位于256 KiB竞技场中,因此,如果仅在一个池中使用一个块,则不会释放整个256 KiB竞技场。在Python 3.3中,小型对象分配器已切换为使用匿名内存映射而不是堆,因此它在释放内存方面应表现更好。
此外,内置类型维护可能使用或不使用小型对象分配器的先前分配对象的空闲列表。该int
类型维护一个具有自己分配的内存的空闲列表,要清除它,需要调用PyInt_ClearFreeList()
。可以通过做一个full来间接地调用它gc.collect
。
这样尝试,然后告诉我您得到了什么。这是psutil.Process.memory_info的链接。
import os
import gc
import psutil
proc = psutil.Process(os.getpid())
gc.collect()
mem0 = proc.get_memory_info().rss
# create approx. 10**7 int objects and pointers
foo = ['abc' for x in range(10**7)]
mem1 = proc.get_memory_info().rss
# unreference, including x == 9999999
del foo, x
mem2 = proc.get_memory_info().rss
# collect() calls PyInt_ClearFreeList()
# or use ctypes: pythonapi.PyInt_ClearFreeList()
gc.collect()
mem3 = proc.get_memory_info().rss
pd = lambda x2, x1: 100.0 * (x2 - x1) / mem0
print "Allocation: %0.2f%%" % pd(mem1, mem0)
print "Unreference: %0.2f%%" % pd(mem2, mem1)
print "Collect: %0.2f%%" % pd(mem3, mem2)
print "Overall: %0.2f%%" % pd(mem3, mem0)
输出:
Allocation: 3034.36%
Unreference: -752.39%
Collect: -2279.74%
Overall: 2.23%
编辑:
我改用相对于进程VM大小的度量来消除系统中其他进程的影响。
当顶部的连续可用空间达到恒定,动态或可配置的阈值时,C运行时(例如glibc,msvcrt)会缩小堆。使用glibc,您可以使用mallopt
(M_TRIM_THRESHOLD)进行调整。鉴于此,如果堆的收缩量比您的块收缩的量更大甚至更多,也就不足为奇了free
。
在3.x版本range
中不会创建列表,因此上面的测试不会创建1000万个int
对象。即使这样做,int
3.x中的类型也基本上是2.x long
,它没有实现自由列表。
回答 1
我猜您在这里真正关心的问题是:
有没有一种方法可以强制Python释放所有已使用的内存(如果您知道不会再使用那么多的内存)?
不,那里没有。但是有一个简单的解决方法:子进程。
如果您需要5分钟的500MB临时存储空间,但是之后又需要运行2个小时,并且不会再碰到那么多的内存,请生成一个子进程来进行占用大量内存的工作。当子进程消失时,内存将被释放。
这不是完全琐碎和免费的,但是它很容易且便宜,通常足以使交易值得。
首先,最简单的创建子进程的方法是使用concurrent.futures
或(对于3.1及更早版本,futures
在PyPI上进行反向移植):
with concurrent.futures.ProcessPoolExecutor(max_workers=1) as executor:
result = executor.submit(func, *args, **kwargs).result()
如果需要更多控制,请使用该multiprocessing
模块。
费用是:
- 在某些平台上,尤其是Windows,进程启动有点慢。我们在这里以毫秒为单位,而不是分钟,如果您要让一个孩子做300秒的工作,您甚至不会注意到。但这不是免费的。
- 如果使用大量的临时存储的还真是大,这样做可能会导致换出你的主程序。当然,从长远来看,您可以节省时间,因为如果该内存永远存在,那将导致在某些时候进行交换。但是,在某些情况下,这可能会将逐渐的缓慢转变为非常明显的一次(和早期)延迟。
- 在进程之间发送大量数据可能很慢。同样,如果您正在谈论发送超过2K的参数并返回64K的结果,您甚至不会注意到它,但是如果您发送和接收大量数据,则需要使用其他某种机制(文件,
mmap
Ped或其他格式;共享内存APImultiprocessing
;等)。 - 在进程之间发送大量数据意味着数据必须是可腌制的(或者,如果将它们粘贴到文件或共享内存中,
struct
则是-理想情况下是-理想ctypes
)。
回答 2
eryksun已经回答了问题1,而我已经回答了问题3(原始的#4),但是现在让我们回答问题2:
为什么特别释放50.5mb-释放量基于多少?
最终,它基于的是Python内部的一系列巧合,而malloc
这些巧合很难预测。
首先,根据测量内存的方式,您可能只在测量实际映射到内存的页面。在这种情况下,每当页面被调页器换出时,内存将显示为“已释放”,即使尚未释放也是如此。
或者您可能正在测量使用中的页面,这些页面可能会或可能不会计算已分配但从未接触过的页面(在乐观地过度分配的系统(例如linux)上),已分配但已标记的页面MADV_FREE
等。
如果您确实在测量分配的页面(这实际上不是一件非常有用的事情,但这似乎是您要问的问题),并且页面实际上已经被释放了,则可能会发生两种情况:您曾经使用过brk
或等效方法来缩小数据段(如今非常少见),或者您曾经使用过munmap
或类似方法来释放映射的段。(从理论上讲,后者也有一个较小的变体,因为有一些方法可以释放一部分已映射的段,例如,将其窃取MAP_FIXED
用于MADV_FREE
立即取消映射的段。)
但是大多数程序并不直接在内存页面中分配内容。他们使用malloc
-style分配器。当您调用时free
,如果您恰巧free
正在映射中的最后一个活动对象(或数据段的最后N个页面),则分配器只能将页面释放到OS 。您的应用程序无法合理地预测甚至提前检测到它。
CPython使这一过程变得更加复杂-它在的顶部具有一个自定义的2级对象分配器,而在的顶部具有一个自定义的内存分配器malloc
。(有关更详细的解释,请参见源注释。)此外,即使在C API级别上,Python也要少得多,您甚至不直接控制顶级对象的释放时间。
因此,当您释放一个对象时,如何知道它是否将向OS释放内存?好吧,首先,您必须知道已发布了最后一个引用(包括您不知道的任何内部引用),从而允许GC对其进行分配。(与其他实现不同,至少CPython会在允许的情况下立即释放对象。)这通常会在下一级向下释放至少两件事(例如,对于一个字符串,您释放该PyString
对象和字符串缓冲区) )。
如果确实要释放对象,则要知道这是否导致下一级别的释放对象存储块,您必须知道对象分配器的内部状态及其实现方式。(除非您要取消分配块中的最后一件事,否则显然不会发生,即使那样,也可能不会发生。)
如果确实要释放对象存储块,要知道这是否导致free
调用,则必须知道PyMem分配器的内部状态及其实现方式。(同样,您必须在malloc
ed区域中释放最后一个使用中的块,即使那样,也可能不会发生。)
如果你做 free
一个malloc
版区,要知道这是否会导致munmap
或同等学历(或brk
),你必须知道的内部状态malloc
,以及它是如何实现的。而且,这个不同于其他,它是高度特定于平台的。(同样,您通常必须malloc
在一个mmap
网段中释放最后一次使用的资源,即使那样,也可能不会发生。)
因此,如果您想了解为什么它恰好释放了50.5mb,则必须从下至上进行跟踪。malloc
当您进行一次或多次free
通话(可能超过50.5mb)时,为什么不映射50.5mb的页面?您必须阅读平台的malloc
,然后遍历各种表和列表以查看其当前状态。(在某些平台上,它甚至可能利用系统级信息,而如果不制作系统快照以进行脱机检查几乎是不可能捕获的,但是幸运的是,这通常不是问题。)然后,您必须在以上三个级别上执行相同的操作。
因此,对该问题唯一有用的答案是“因为”。
除非您正在进行资源有限的(例如嵌入式)开发,否则您没有理由关心这些细节。
如果你正在做资源有限的发展,了解这些细节是无用的; 您几乎必须在所有这些级别上进行最终运行,尤其mmap
是在应用程序级别上可能需要的内存(可能在两者之间使用一个简单的,易于理解的,特定于应用程序的区域分配器)。
回答 3
首先,您可能要安装一眼:
sudo apt-get install python-pip build-essential python-dev lm-sensors
sudo pip install psutil logutils bottle batinfo https://bitbucket.org/gleb_zhulik/py3sensors/get/tip.tar.gz zeroconf netifaces pymdstat influxdb elasticsearch potsdb statsd pystache docker-py pysnmp pika py-cpuinfo bernhard
sudo pip install glances
然后在终端中运行它!
glances
在您的Python代码中,在文件的开头添加以下内容:
import os
import gc # Garbage Collector
使用“ Big”变量(例如:myBigVar)后,您要为其释放内存,请在python代码中编写以下内容:
del myBigVar
gc.collect()
在另一个终端中,运行您的python代码,并在“ glances”终端中观察如何在系统中管理内存!
祝好运!
PS我假设您正在Debian或Ubuntu系统上工作