Преобразуйте от Строки до байта []:
String s = "some text here";
byte[] b = s.getBytes(StandardCharsets.UTF_8);
Преобразовывают из байта [] для Строкового представления:
byte[] b = {(byte) 99, (byte)97, (byte)116};
String s = new String(b, StandardCharsets.US_ASCII);
необходимо, конечно, использовать корректное имя кодирования. Мои примеры использовали US-ASCII и UTF-8, две наиболее распространенных кодировки.
Можно преобразовать непосредственно через Строка (байт [], Строка) конструктор и getBytes (Строка) метод. Java представляет доступные наборы символов через Набор символов класс. Документация JDK списки поддерживала кодировку .
90% времени, такие преобразования выполняются на потоках, таким образом, Вы использовали бы Читатель / Писатель классы. Вы инкрементно не декодировали бы использование Строковых методов на произвольных потоках байтов - Вы оставите себя открытыми для ошибок, включающих многобайтовые символы.
String original = "hello world";
byte[] utf8Bytes = original.getBytes("UTF-8");
ужасно поздно, но я только что столкнулся с этой проблемой, и это мое решение:
private static String removeNonUtf8CompliantCharacters( final String inString ) {
if (null == inString ) return null;
byte[] byteArr = inString.getBytes();
for ( int i=0; i < byteArr.length; i++ ) {
byte ch= byteArr[i];
// remove any characters outside the valid UTF-8 range as well as all control characters
// except tabs and new lines
if ( !( (ch > 31 && ch < 253 ) || ch == '\t' || ch == '\n' || ch == '\r') ) {
byteArr[i]=' ';
}
}
return new String( byteArr );
}
Вот решение, которое позволяет избежать поиска Charset для каждого преобразования:
import java.nio.charset.Charset;
private final Charset UTF8_CHARSET = Charset.forName("UTF-8");
String decodeUTF8(byte[] bytes) {
return new String(bytes, UTF8_CHARSET);
}
byte[] encodeUTF8(String string) {
return string.getBytes(UTF8_CHARSET);
}