Was ist der Unterschied zwischen Varchar und Nvarchar

Das Main Unterschied zwischen Varchar und Nvarchar ist das varchar ist ein Nicht-Unicode-Datentyp mit variabler Länge, während nvarchar ein Unicode-Datentyp mit variabler Länge ist.

Eine Datenbank ist eine Sammlung von Daten, und DBMS ist eine Software, mit deren Hilfe Datenbanken effizient verwaltet werden können. DBMSs wie MSSQL basieren auf dem relationalen Modell. Sie speichern Daten in Tabellen und diese Tabellen sind miteinander verbunden. In jeder Tabelle werden bestimmte Werte gespeichert. Jede Zeile stellt einen Datensatz dar, während die Spalten die Attribute darstellen. Beim Speichern von Werten in der Tabelle sollte jede Spalte Daten eines bestimmten Typs enthalten. Mit anderen Worten, jede Spalte hat einen Datentyp. Varchar und nvarchar sind zwei solcher Datentypen.

Wichtige Bereiche

1. Was ist Varchar?
     - Definition, Funktionalität
2. Was ist Nvarchar?
     - Definition, Funktionalität
3. Was ist der Unterschied zwischen Varchar und Nvarchar
     - Vergleich der wichtigsten Unterschiede

Schlüsselbegriffe

Datentyp, nvarchar, Unicode, varchar

Was ist Varchar?

SQL (Structured Query Language) ist die Sprache, mit der Daten in DBMS abgerufen und verwaltet werden können. SQL-Datentypen definieren den Attributtyp in Tabellen. Daher hat jede Spalte im DBMS einen bestimmten Datentyp. Es beschreibt die Art der Daten, die es speichern kann. Der Programmierer kann diese Datentypen verwenden, um Tabellen zu erstellen.

Varchar ist ein Datentyp, der einen Satz von Zeichendaten mit unbestimmter Länge beschreibt. Eine Spalte des Datentyps varchar kann Buchstaben und Zahlen enthalten. Es kann Daten bis zu einer bestimmten Grenze halten. MSSQL kann maximal 8000 Zeichen enthalten. Wenn der Programmierer varchar (max) verwendet, kann er eine maximale Länge von 2E + 31 Zeichen speichern.

Was ist Nvarchar?

Im Gegensatz dazu ist nvarchar ein Datentyp, der Unicode-Zeichen mit variabler Länge speichert. Unicode ist ein Kodierungsstandard, der Buchstaben in Sprachen wie Englisch, Griechisch, Arabisch und verschiedene Symbole wie mathematische Symbole darstellt. Daher kann es mehr Zeichen als varchar darstellen. In MSSQL benötigt jedes Zeichen im Datentyp nvarchar 2 Byte.

Unterschied zwischen Varchar und Nvarchar

Definition

Varchar ist ein Datentyp in SQL, der einen Satz von Nicht-Unicode-Zeichendaten mit unbestimmter Länge speichert. Im Gegensatz dazu ist nvarchar ein Datentyp in SQL, der einen Satz von Unicode-Zeichendaten mit unbestimmter Länge speichert. Dies erklärt daher den Hauptunterschied zwischen Varchar und Nvarchar.

Lange Form

Während varchar für nicht Unicode mit variabler Länge steht, steht nvarchar für Unicode-Daten mit variabler Länge.

Maximale Länge

In MSSQL kann varchar maximal 8000 Zeichen speichern. In MSSQL kann nvarchar jedoch maximal 4000 Zeichen speichern. Daher ist auch die Speicherkapazität ein Unterschied zwischen varchar und nvarchar.

Anzahl Bytes

Ein weiterer Unterschied zwischen varchar und nvarchar besteht darin, dass varchar 1 Byte pro Zeichen und nvacrahr 2 Byte pro Zeichen benötigt.

Fazit

Zusammenfassend sind varchar und nvarchar zwei Arten von Datentypen in DBMS wie MSSQL. Sie definieren, welcher Datentyp in den Tabellen gespeichert werden soll. Der Unterschied zwischen varchar und nvarchar ist, dass varchar ein Nicht-Unicode-Datentyp mit variabler Länge ist, während nvarchar ein Unicode-Datentyp mit variabler Länge ist.

Referenz:

1. „Varchar.“ Wikipedia, Wikimedia Foundation, 10. Oktober 2018, hier erhältlich.
2. „SQL-Datentypen“. Www.tutorialspoint.com, hier verfügbar.

Bildhöflichkeit:

1. “2394312” (CC0) über Pixabay