]> git.ipfire.org Git - thirdparty/libvirt.git/commit
nodeinfo: Phase out cpu_set_t usage
authorAndrea Bolognani <abologna@redhat.com>
Mon, 20 Jul 2015 16:37:27 +0000 (18:37 +0200)
committerPeter Krempa <pkrempa@redhat.com>
Wed, 22 Jul 2015 08:14:02 +0000 (10:14 +0200)
commitb7b506475ca176276bfaa5dbcdba5b16744b6d56
treeea416768133139ce3924acd583d93ebe17176a5c
parentc1df42d734fbd40b7220dad4a9c15f2584828a80
nodeinfo: Phase out cpu_set_t usage

Swap out all instances of cpu_set_t and replace them with virBitmap,
which some of the code was already using anyway.

The changes are pretty mechanical, with one notable exception: an
assumption has been added on the max value we can run into while
reading either socket_it or core_id.

While this specific assumption was not in place before, we were
using cpu_set_t improperly by not making sure not to set any bit
past CPU_SETSIZE or explicitly allocating bigger bitmaps; in fact
the default size of a cpu_set_t, 1024, is way too low to run our
testsuite, which includes core_id values in the 2000s.
src/nodeinfo.c