Vodič za Unicode u Pythonu, prilagođen početnicima

Jednom sam proveo nekoliko frustrirajućih dana na poslu učeći kako se pravilno nositi sa Unicode stringovima u Pythonu. Tijekom ta dva dana pojeo sam puno grickalica - otprilike jednu vrećicu zlatnih ribica po jednoj od ovih grešaka, što bi onima koji programiraju s Pythonom trebalo biti previše poznato:

UnicodeDecodeError: ‘ascii’ codec can’t decode byte 0xf0 in position 0: ordinal not in range(128)

Dok sam rješavao svoj problem, puno sam guglao, što me uputilo na nekoliko neophodnih članaka. No, koliko god bili sjajni, svi su napisani bez pomoći presudnog aspekta komunikacije u današnje vrijeme.

Odnosno: svi su napisani bez pomoći emojija.

Dakle, kako bih iskoristio ovu situaciju, odlučio sam napisati vlastiti vodič za razumijevanje Unicodea, s puno lica i ikona koje su usput prikazane? ✌ ?.

Prije ulaska u tehničke detalje, krenimo sa zabavnim pitanjem. Koji su vaši omiljeni emojiji?

Moje je "lice otvorenih usta", koje izgleda ovako? - uz jedno glavno upozorenje. Ono što vidite zapravo ovisi o platformi koju koristite za čitanje ovog posta!

Gledano na mom Macu, emojiji izgledaju poput žute lopte za kuglanje. Na mojem Samsung tabletu oči su crne i kružne, naglašene bijelom točkom koja odaje veću dubinu osjećaja.

Kopirajte i zalijepite emoji sličice (?) U Twitter i vidjet ćete nešto sasvim drugo. Međutim, kopirajte ga i zalijepite u messenger.com i vidjet ćete zašto je moj omiljeni.

???? Zašto su svi različiti?

Napomena: Od 9. srpnja 2018.: čini se da je Messenger ažurirao svoje ikone emojija, pa se ikona u gornjem desnom dijelu više ne odnosi. ?

Ova zabavna mala misterija naš je prelazak u svijet Unicodea, jer su emojiji dio Unicode Standarda od 2010. Osim što nam daje emojije, Unicode je važan jer je Internet preferirani izbor za dosljedno „kodiranje, predstavljanje i rukovanje tekstom ”.

Unicode i kodiranje: kratki priručnik

Kao i kod mnogih tema, najbolji način za razumijevanje Unicodea je poznavanje konteksta oko njegovog stvaranja - a za to je potreban i članak Joela Spolskyja.

Šifra bodova

Budući da smo sada ušli u svijet Unicodea, prvo moramo razdvojiti emojije od čudesno izražajnih ikona koje jesu i povezati ih s nečim puno manje uzbudljivim. Dakle, umjesto da razmišljamo o emojijima u smislu stvari ili osjećaja koje oni predstavljaju, umjesto toga, svaki emoji emo razmišljati kao običan broj. Ovaj je broj poznat kao kodna točka .

Šifre su ključni koncept Unicode-a, koji je „osmišljen da podrži svjetsku razmjenu, obradu i prikaz pisanih tekstova različitih jezika ... modernog svijeta“. To čini tako da gotovo svaki ispisni znak poveže s jedinstvenom kodnom točkom. Ovi znakovi zajedno čine skup Unicode znakova .

Točke koda obično se pišu u heksadecimalnom obliku i imaju prefiks U+da označe vezu s Unicodeom, predstavljajući znakove iz:

  • egzotični jezici kao što je telugu [ఋ | kodna točka: U + 0C0B]
  • šahovski simboli [♖ | kodna točka: U + 2656]
  • i, naravno, emojiji [? | kodna točka: U + 1F64C]

Glifi su ono što vidite

Stvarni prikazi kodnih točaka na ekranu nazivaju se glifima (cjelovito mapiranjekodnih točaka na glifove poznat kao font ) .

Kao primjer , uzeti ovaj slovo A, što je kodna točka U+0041u Unicode. "A" koji vidite očima je glif - izgleda kao da je, jer je izveden srednjim fontom. Ako biste font promijenili u, na primjer Times New Roman, promijenio bi se samo glif "A" - temeljna kodna točka ne bi.

Glifi su odgovor na našu malu misteriju prikazivanja. Ispod haube, sve inačice lica s emojijima otvorenih usta usmjeravaju na istu točku koda U+1F62E, ali glif koji ga predstavlja razlikuje se ovisno o platformi?.

Kodne točke su apstrakcije

Budući da ne govore ništa o tome kako su prikazani vizualno (potreban im je font i glif da bi ih "oživjeli"), kodne točke su apstrakcija.

Ali kao što su kodne točke apstrakcija krajnjim korisnicima, one su apstrakcije i računalima. To je zato što kodne točke zahtijevaju kodiranje znakova da bi ih pretvorile u jednu stvar koju računala mogu protumačiti: u bajtove. Jednom pretvorene u bajtove, kodne točke mogu se spremiti u datoteke ili poslati mrežom na drugo računalo? ➡️ ?.

UTF-8 je trenutno najpopularnije kodiranje znakova na svijetu. UTF-8 koristi skup pravila za pretvaranje točke koda u jedinstveni slijed od (1 do 4) bajtova i obrnuto. Kod točke su, kako se kodiran u niz bitova, a sekvence bajtova dekodiraju u kod bodova. Ovaj post o preljevu steka objašnjava kako funkcionira algoritam UTF-8 kodiranja.

Međutim, iako je UTF-8 prevladavajuće kodiranje znakova na svijetu, to daleko nije jedino. Na primjer, UTF-16 je alternativno kodiranje znakova skupa znakova Unicode. Slika ispod uspoređuje UTF-8 i UTF-16 kodiranje naših emojija?

Problemi nastaju kada jedno računalo kodira točke koda u bajtove s jednim kodiranjem, a drugo računalo (ili drugi postupak na istom računalu) dekodira te bajtove drugim.

Srećom, UTF-8 je dovoljno sveprisutan da se, uglavnom, ne moramo brinuti zbog neusklađenih kodiranja znakova. Ali kad se dogode, potrebno je poznavanje gore spomenutih pojmova da biste se izvukli iz nereda.

Kratki osvrt

  • Unicode je zbirka kodnih točaka , a to su obični brojevi koji se obično pišu u heksadecimalnom obliku i imaju prefiks U+. Ove se kodne točke preslikavaju na gotovo sve znakove za ispis iz pisanih jezika širom svijeta.
  • Glifi su fizička manifestacija lika. Ovaj tip ? je glif. F ont je mapiranje kodnih točaka na glifove.
  • Da bi ih mogli poslati putem mreže ili ih spremiti u datoteku, znakovi i njihove osnovne kodne točke moraju se kodirati u bajtove. Kodiranje znakova sadrži pojedinosti o tome kako kodna točka je ugrađena u niz bajtova.
  • UTF-8 je trenutno popularno kodiranje znakova na svijetu. S obzirom na kodnu točku, UTF-8 ga kodira u niz bajtova. S obzirom na slijed bajtova, UTF-8 ga dekodira u kodnu točku.

Praktični primjer

Ispravno prikazivanje Unicode znakova uključuje prelazak lanca, u rasponu od bajtova do kodnih točaka do glifa.

Krenimo sada pomoću uređivača teksta kako bismo vidjeli praktični primjer ovog lanca - kao i vrste problema koji se mogu pojaviti kad stvari pođu po zlu. Uređivači teksta savršeni su jer uključuju sva tri dijela gore prikazanog lanca prikazivanja.

Note: The following example was done on my MacOS using Sublime Text 3. And to give credit where credit is due: the beginning of this example is heavily inspired by this post from Philip Guo, which introduced me to the hexdump command (and a whole lot more).

We’ll start with a text file containing a single character — my favorite “face with open mouth” emoji. For those who want to follow along, I’ve hosted this file in a Github gist, which you get locally with curl.

curl //gist.githubusercontent.com/jzhang621/d7d9eb167f25084420049cb47510c971/raw/e35f9669785d83db864f9d6b21faf03d9e51608d/emoji.txt > emoji.txt

As we learned, in order for it be saved to a file, the emoji was encoded into bytes using a character encoding. This particular file was encoded using UTF-8, and we can use the hexdump command to examine the actual byte contents of the file.

j|encoding: hexdump emoji.txt0000000 f0 9f 98 ae 0000004

The output of hexdump tells us the file contains 4 bytes total, each of which is written in hexadecimal. The actual byte sequence f0 9f 98 ae matches the expected UTF-8 encoded byte sequence, as shown below.

Now, let’s open our file in Sublime Text, where we should see our single ? character. Since we see the expected glyph, we can assume Sublime Text used the correct character encoding to decode those bytes into code points. Let’s confirm by opening up the console View -> Show Console, and inspecting the view object that Sublime Text exposes as part of its Python API.

>>> view
# returns the encoding currently associated with the file>>> view.encoding()'UTF-8'

With a bit of Python knowledge, we can also find the Unicode code point associated with our emoji:

# Returns the character at the given position>>> view.substr(0)'?' 
# ord returns an integer representing the Unicode code point of the character (docs)>>> ord(view.substr(0))128558
# convert code point to hexadecimal, and format with U+>>> print('U+%x' % ord(view.substr(0)))U+1f62e

Again, just as we expected. This illustrates a full traversal of the Unicode rendering chain, which involved:

  • reading the file as a sequence of UTF-8 encoded bytes.
  • decoding the bytes into a Unicode code point.
  • rendering the glyph associated with the code point.

So far, so good ?.

Different Bytes, Same Emoji

Aside from being my favorite text editor, I chose Sublime Text for this example because it allows for easy experimentation with character encodings.

We can now save the file using a different character encoding. To do so, click File -> Save with Encoding -> UTF-16 BE. (Very briefly, UTF-16 is an alternative character encoding of the Unicode character set. Instead of encoding the most common characters using one byte, like UTF-8, UTF-16 encodes every point from 1–65536 using two bytes. Code points greater than 65536, like our emoji, are encoded using surrogate pairs. The BE stands for Big Endian).

When we use hexdump to inspect the file again, we see that byte contents have changed.

# (before: UTF-8)j|encoding: hexdump emoji.txt0000000 f0 9f 98 ae 0000004
# (after: UTF-16 BE)j|encoding: hexdump emoji.txt0000000 d8 3d de 2e0000004

Back in Sublime Text, we still see the same ? character staring at us. Saving the file with a different character encoding might have changed the actual contents of the file, but it also updated Sublime Text’s internal representation of how to interpret those bytes. We can confirm by firing up the console again.

>>> view.encoding()'UTF-16 BE'

From here on up, everything else is the same.

>>> view.substr(0)'?' 
>>> ord(view.substr(0))128558
>>> print('U+%x' % ord(view.substr(0)))U+1f62e

The bytes may have changed, but the code point did not — and the emoji remains the same.

Same Bytes, But What The đŸ˜®

Time for some encoding “fun”. First, let’s re-encode our file using UTF-8, because it makes for a better example.

Let’s now go ahead use Sublime Text to re-open an existing file using a different character encoding. Under File -> Reopen with Encoding, click Vietnamese (Windows 1258), which turns our emoji character into the following four nonsensical characters: đŸ˜®.

When we click “Reopen with Encoding”, we aren’t changing the actual byte contents of the file, but rather, the way Sublime Text interprets those bytes. Hexdump confirms the bytes are the same:

j|encoding: hexdump emoji.txt0000000 f0 9f 98 ae0000004

To understand why we see these nonsensical characters, we need to consult the Windows-1258 code page, which is a mapping of bytes to a Vietnamese language character set. (Think of a code page as the table produced by a character encoding). As this code page contains a character set with less than 255 characters, each character’s code points can be expressed as a decimal number between 0 and 255, which in turn can all be encoded using 1 byte.

Because our single ? emoji requires 4 bytes to encode using UTF-8, we now see 4 characters when we interpret the file with the Windows-1258 encoding.

A wrong choice of character encoding has a direct impact on what we can see and comprehend by garbling characters into an incomprehensible mess.

Now, onto the “fun” part, which I include to add some color to Unicode and why it exists. Before Unicode, there were many different code pages such as Windows-1258 in existence, each with a different way of mapping 1 byte’s worth of data into 255 characters. Unicode was created in order to incorporate all the different characters of the all the different code pages into one system. In other words, Unicode is a superset of Windows-1258, and each character in the Windows-1258 code page has a Unicode counterpart.

In fact, these Unicode counterparts are what allows Sublime Text to convert between different character encodings with a click of a button. Internally, Sublime Text still represents each of our “Windows-1258 decoded” characters as a Unicode code point, as we see below when we fire up the console:

>>> view.encoding()'Vietnamese (Windows 1258)'
# Python 3 strings are "immutable sequences of Unicode code points">>> type(view.substr(0))
>>> view.substr(0)'đ'>>> view.substr(1)'Ÿ'>>> view.substr(2)'˜'>>> view.substr(3)'®'
>>> ['U+%04x' % ord(view.substr(x)) for x in range(0, 4)]['U+0111', 'U+0178', 'U+02dc', 'U+00ae']

This means that we can re-save our 4 nonsensical characters using UTF-8. I’ll leave this one up to you — if you do so, and can correctly predict the resulting hexdump of the file, then you’ve successfully understood the key concepts behind Unicode, code points, and character encodings. (Use this UTF-8 code page. Answer can be found at the very end of this article. ).

Wrapping up

Working effectively with Unicode involves always knowing what level of the rendering chain you are operating on. It means always asking yourself: what do I have? Under the hood, glyphs are nothing but code points. If you are working with code points, know that those code points must be encoded into bytes with a character encoding. If you have a sequence of bytes representing text, know that those bytes are meaningless without knowing the character encoding that was used create those bytes.

As with any computer science topic, the best way to learn about Unicode is to experiment. Enter characters, play with character encodings, and make predictions that you verify using hexdump. While I hope this article explains everything you need to know about Unicode, I will be more than happy if it merely sets you up to run your own experiments.

Thanks for reading! ?

Answer:

j|encoding: $ hexdump emoji.txt0000000 c4 91 c5 b8 cb 9c c2 ae0000008