]> git.ipfire.org Git - thirdparty/Python/cpython.git/commitdiff
gh-111031: Check more files in `test_tokenize` (#111032)
authorNikita Sobolev <mail@sobolevn.me>
Thu, 19 Oct 2023 08:29:45 +0000 (11:29 +0300)
committerGitHub <noreply@github.com>
Thu, 19 Oct 2023 08:29:45 +0000 (09:29 +0100)
Lib/test/test_tokenize.py

index 41b9ebe3374d622436f47228d78c695d6eba7f0f..290f4608c5e739737ad909efe3f1700e6590d052 100644 (file)
@@ -1901,19 +1901,9 @@ class TestRoundtrip(TestCase):
         tempdir = os.path.dirname(__file__) or os.curdir
         testfiles = glob.glob(os.path.join(glob.escape(tempdir), "test*.py"))
 
-        # Tokenize is broken on test_pep3131.py because regular expressions are
-        # broken on the obscure unicode identifiers in it. *sigh*
-        # With roundtrip extended to test the 5-tuple mode of untokenize,
-        # 7 more testfiles fail.  Remove them also until the failure is diagnosed.
-
-        testfiles.remove(os.path.join(tempdir, "test_unicode_identifiers.py"))
-
         # TODO: Remove this once we can untokenize PEP 701 syntax
         testfiles.remove(os.path.join(tempdir, "test_fstring.py"))
 
-        for f in ('buffer', 'builtin', 'fileio', 'os', 'platform', 'sys'):
-            testfiles.remove(os.path.join(tempdir, "test_%s.py") % f)
-
         if not support.is_resource_enabled("cpu"):
             testfiles = random.sample(testfiles, 10)