Главная » Статьи » TypeScript — String charCodeAt()

TypeScript — String charCodeAt()

TypeScript — String charCodeAt()

От автора: этот метод возвращает число, указывающее на значение символа Unicode в данном индексе. Точки кода Unicode находятся в диапазоне от 0 до 1,114,111. Первые 128 точек кода полностью совпадают с кодировкой символов ASCII. String charCodeAt() всегда возвращает значение меньше 65,536.

Синтаксис

string.charCodeAt(index);

Описание аргумента

index – Целое число между 0 и длина строки минус 1; если не задано, то по умолчанию равно 0.

Возвращаемое значение

Возвращает число, которое указывает на значение символа Unicode по заданному индексу. Возвращает NaN, если заданный индекс не находится в диапазоне между 0 и длина строки минус 1.

Пример

var str = new String("This is string"); console.log("str.charAt(0) is:" + str.charCodeAt(0)); console.log("str.charAt(1) is:" + str.charCodeAt(1)); console.log("str.charAt(2) is:" + str.charCodeAt(2)); console.log("str.charAt(3) is:" + str.charCodeAt(3)); console.log("str.charAt(4) is:" + str.charCodeAt(4)); console.log("str.charAt(5) is:" + str.charCodeAt(5));

После компиляции мы получим тот же код JavaScript. Результат выглядит следующим образом:

str.charAt(0) is:84 str.charAt(1) is:104 str.charAt(2) is:105 str.charAt(3) is:115 str.charAt(4) is:32 str.charAt(5) is:105

Источник: https://www.tutorialspoint.com/

Редакция: Команда webformyself.