Programmieren Lernen #76 - Ascii und Unicode

preview_player
Показать описание
In diesem Tutorial sehen wir uns Ascii und Unicode an.

_Discord:_

_Unterstützt mich - Danke!:_
Рекомендации по теме
Комментарии
Автор

Weil das hier so niemand schreibt. Danke für das Video, es hat mir sehr geholfen.

linachanty
Автор

eine Sache verstehe ich daran irgendwie nicht. Wenn jetzt die Zahl 97 als Binärzahl "a" bedeutet, wie stelle ich dann die Zahl 97 da? die Binärdarstellung von 97 ist ja dann praktisch schon verbraucht durch das "a"

Daniel-oxzk
Автор

Java unterstützt es automatisch, da der Datentyp char 16 Bit groß ist
und C++ unterstützt den Standard auch, bloß man muss statt
char wchar_t und statt std::string std::wstring benutzen.
Und dann natürlich auch std::wcout statt std::cout

therealchonk
Автор

Mir fällt grad noch ein es gibt auch den Extended ASCII, der 1 Bit mehr braucht als der normale. Dafür umfasst er viele lateinische Zeichen wie ä ö ü, ob der bei C++ oder Java verwendet wird, weiß ich nicht, aber bei C++ ist es glaub ich Compilersache.

therealchonk