Le processus de conversion des données d’un formulaire à un autre est connu sous le nom d’encodage. Il est utilisé pour transformer les données afin que les données puissent être prises en charge et utilisées par différents systèmes. L'encodage fonctionne de la même manière que la conversion de la température centigrade en Fahrenheit, car elle est simplement convertie sous une autre forme, mais la valeur d'origine reste toujours la même. L'encodage est utilisé dans deux domaines principalement :
Remarque : L'encodage est différent du cryptage car son objectif principal n'est pas de masquer les données mais de les convertir dans un format afin qu'elles puissent être correctement consommées.
Dans cette rubrique, nous allons aborder les différents types de techniques de codage utilisées en informatique.
Type de technique de codage
Encodage de caractère
Le codage des caractères code les caractères en octets . Il indique aux ordinateurs comment interpréter les zéros et les uns en caractères, nombres et symboles réels. L'ordinateur ne comprend que les données binaires ; il est donc nécessaire de convertir ces caractères en codes numériques. Pour y parvenir, chaque caractère est converti en code binaire, et pour cela, les documents texte sont enregistrés avec des types d'encodage. Cela peut être fait en associant des nombres à des caractères. Si nous n'appliquons pas le codage des caractères, notre site Web n'affichera pas les caractères et le texte dans un format approprié. Cela diminuerait donc la lisibilité et la machine ne serait pas en mesure de traiter correctement les données. De plus, le codage des caractères garantit que chaque caractère a une représentation appropriée au format informatique ou binaire.
Il existe différents types de techniques de codage de caractères, indiquées ci-dessous :
Encodage HTML
L'encodage HTML est utilisé pour afficher une page HTML dans un format approprié. Grâce au codage, un navigateur Web apprend quel jeu de caractères doit être utilisé.
En HTML, différents caractères sont utilisés dans le balisage HTML, tels que . Pour encoder ces caractères en tant que contenu, nous devons utiliser un encodage.
Encodage d'URL
L'encodage URL (Uniform Resource Locator) est utilisé pour convertir les caractères dans un format tel qu'ils puissent être transmis sur Internet . Il est également connu sous le nom de codage en pourcentage. Le codage d'URL est effectué pour envoyer l'URL à Internet en utilisant le jeu de caractères ASCII. Les caractères non-ASCII sont remplacés par un %, suivi des chiffres hexadécimaux.
Encodage UNICODE
Unicode est une norme de codage pour un jeu de caractères universel. Il permet d'encoder, de représenter et de gérer le texte représenté dans la plupart des langues ou systèmes d'écriture disponibles dans le monde. Il fournit un point de code ou un numéro pour chaque caractère dans chaque langue prise en charge. Il peut représenter approximativement tous les caractères possibles dans toutes les langues. Une séquence particulière de bits est appelée unité de codage.
Une norme UNICODE peut utiliser 8, 16 ou 32 bits pour représenter les caractères.
La norme Unicode définit le format de transformation Unicode (UTF) pour coder les points de code.
La norme de codage UNICODE comporte les schémas UTF suivants :
L'UTF8 est défini par la norme UNICODE, qui est un codage de caractères à largeur variable utilisé dans les communications électroniques. UTF-8 est capable de coder les 1 112 064 points de code de caractères valides en Unicode en utilisant une à quatre unités de code d'un octet (8 bits).
L'encodage UTF16 représente les points de code d'un caractère en utilisant l'un des deux entiers de 16 bits.
Le codage UTF32 représente chaque point de code sous forme d'entiers de 32 bits.
Encodage Base64
Le codage Base64 est utilisé pour coder des données binaires en caractères ASCII équivalents. Le codage Base64 est utilisé dans le système de messagerie, car les systèmes de messagerie tels que SMTP ne peuvent pas fonctionner avec des données binaires car ils n'acceptent que les données textuelles ASCII. Il est également utilisé dans l'authentification HTTP simple pour coder les informations d'identification. De plus, il est également utilisé pour transférer les données binaires dans des cookies et d'autres paramètres afin de rendre les données illisibles afin d'éviter toute falsification. Si une image ou un autre fichier est transféré sans encodage Base64, il sera corrompu car le système de messagerie n'est pas capable de traiter les données binaires.
Base64 représente les données en blocs de 3 octets, où chaque octet contient 8 bits ; il représente donc 24 bits. Ces 24 bits sont répartis en quatre groupes de 6 bits. Chacun de ces groupes ou morceaux est converti en valeur Base64 équivalente.
Encodage ASCII
Code américain normalisé pour l'échange d'information (ASCII) est un type de codage de caractères. Il s’agit de la première norme de codage de caractères publiée en 1963.
Le code ASCII est utilisé pour représenter les caractères anglais sous forme de chiffres, où chaque lettre se voit attribuer un numéro de 0 à 127. La plupart des systèmes de codage de caractères modernes sont basés sur l'ASCII, bien qu'ils prennent en charge de nombreux caractères supplémentaires. Il s'agit d'un codage sur un seul octet utilisant uniquement les 7 bits inférieurs. Dans un fichier ASCII, chaque caractère alphabétique, numérique ou spécial est représenté par un nombre binaire de 7 bits. Chaque caractère du clavier a une valeur ASCII équivalente.
Encodage d’images, audio et vidéo
L'encodage des images, de l'audio et de la vidéo est effectué pour économiser de l'espace de stockage. Un fichier multimédia tel qu'une image, un audio et une vidéo est codé pour les enregistrer dans un format plus efficace et compressé.
Ces fichiers codés contiennent le même contenu avec une qualité généralement similaire, mais dans une taille compressée, de sorte qu'ils peuvent être enregistrés dans moins d'espace, peuvent être transférés facilement par courrier ou peuvent être téléchargés sur le système.
Nous pouvons le comprendre comme un . Le fichier audio WAV est converti en fichier .MP3 pour réduire la taille de 1/10èmeà sa taille originale.