chiark / gitweb /
test and corrections for utf32_is_word_boundary()
[disorder] / scripts / make-unidata
index b00eb0a76fff1129653cd5b15960e9b1443928bc..58de22ff81a446beaac3a9da061326f317fc3dd0 100755 (executable)
@@ -245,6 +245,7 @@ out("enum unicode_Word_Break {\n",
     join(",\n",
         map("  unicode_Word_Break_$_", sort keys %wbpropvals)),
     "\n};\n");
+out("extern const char *const unicode_Word_Break_names[];\n");
 
 out("enum unicode_flags {\n",
     "  unicode_normalize_before_casefold = 1\n",
@@ -303,6 +304,13 @@ out("/* Automatically generated file, see scripts/make-unidata */\n",
 
 out(map(sprintf("#define %s unicode_gc_%s\n", $_, $_), sort keys %cats));
 
+# Names for Word_Break property
+
+out("const char *const unicode_Word_Break_names[] = {\n",
+    join(",\n",
+        map("  \"$_\"", sort keys %wbpropvals)),
+    "\n};\n");
+
 # Generate the decomposition mapping tables.  We look out for duplicates
 # in order to save space and report this as decompsaved at the end.  In
 # Unicode 5.0.0 this saves 1795 entries, which is at least 14Kbytes.