Декодировать строку из массива байтов, где я не знаю кодировку [duplicate]

Сегодня я столкнулся с такой же проблемой и разрешил ее, как показано ниже. Обратите внимание, что в моем случае я знаю количество элементов в конкатенированной строке, поэтому я могу восстановить их следующим образом:

set @var1=0;
set @var2=0;
SELECT SUBSTRING_INDEX('value1,value2', ',', 1) into @var1;
SELECT SUBSTRING_INDEX('value1,value2', ',', -1) into @var2;

переменные @ var1 и @ var2 будут иметь значения, похожие на explode ().

113
задан yoozer8 20 May 2013 в 15:54
поделиться

8 ответов

Проверьте Utf8Checker, это простой класс, который делает именно это в чистом управляемом коде. http://utf8checker.codeplex.com

Обратите внимание: как уже указывалось, определение кодировки имеет смысл только для потоков байтов. Если у вас есть строка, она уже закодирована от кого-то по пути, который уже знал или угадал кодировку, чтобы получить строку в первую очередь.

29
ответ дан devdimi 17 August 2018 в 18:33
поделиться
  • 1
    Если строка является неправильным декодированием, выполненным просто 8-битным кодированием, и у вас есть кодировка, используемая для ее декодирования, вы можете обычно возвращать байты без какого-либо повреждения. – Nyerguds 27 January 2018 в 14:44

Пакет SimpleHelpers.FileEncoding Nuget обертывает порт C # универсального детектора Charset Mozilla в простой API:

var encoding = FileEncoding.DetectFileEncoding(txtFile);
4
ответ дан Arithmomaniac 17 August 2018 в 18:33
поделиться
  • 1
    это должно быть выше, оно обеспечивает очень простое решение: пусть другие выполняют работу: D – buddybubble 27 September 2017 в 07:56

Нижеприведенный код имеет следующие функции:

  1. Обнаружение или попытка обнаружения UTF-7, UTF-8/16/32 (bom, no bom, little & amp; big endian)
  2. Возврат к кодовой странице локального значения по умолчанию, если кодировка Unicode не найдена.
  3. Обнаруживает (с большой вероятностью) файлы Unicode с отсутствующей спецификацией / сигнатурой
  4. Ищет charset = xyz и encoding = xyz внутри файла, чтобы помочь определить кодировку.
  5. Чтобы сохранить обработку, вы можете «попробовать» файл (определяемое количество байтов).
  6. Кодирование и декодирование текстовый файл возвращается.
  7. Чисто байт-решение для эффективности

Как говорили другие, ни одно решение не может быть идеальным (и, конечно, нельзя легко различать различные 8-битные расширенные кодировки ASCII, используемые во всем мире), но мы можем получить «достаточно хорошо», особенно если разработчик также представляет пользователю список альтернативных кодировок, как показано здесь: . Какая наиболее распространенная кодировка каждого язык?

Полный список кодов можно найти, используя Encoding.GetEncodings();

// Function to detect the encoding for UTF-7, UTF-8/16/32 (bom, no bom, little
// & big endian), and local default codepage, and potentially other codepages.
// 'taster' = number of bytes to check of the file (to save processing). Higher
// value is slower, but more reliable (especially UTF-8 with special characters
// later on may appear to be ASCII initially). If taster = 0, then taster
// becomes the length of the file (for maximum reliability). 'text' is simply
// the string with the discovered encoding applied to the file.
public Encoding detectTextEncoding(string filename, out String text, int taster = 1000)
{
    byte[] b = File.ReadAllBytes(filename);

    //////////////// First check the low hanging fruit by checking if a
    //////////////// BOM/signature exists (sourced from http://www.unicode.org/faq/utf_bom.html#bom4)
    if (b.Length >= 4 && b[0] == 0x00 && b[1] == 0x00 && b[2] == 0xFE && b[3] == 0xFF) { text = Encoding.GetEncoding("utf-32BE").GetString(b, 4, b.Length - 4); return Encoding.GetEncoding("utf-32BE"); }  // UTF-32, big-endian 
    else if (b.Length >= 4 && b[0] == 0xFF && b[1] == 0xFE && b[2] == 0x00 && b[3] == 0x00) { text = Encoding.UTF32.GetString(b, 4, b.Length - 4); return Encoding.UTF32; }    // UTF-32, little-endian
    else if (b.Length >= 2 && b[0] == 0xFE && b[1] == 0xFF) { text = Encoding.BigEndianUnicode.GetString(b, 2, b.Length - 2); return Encoding.BigEndianUnicode; }     // UTF-16, big-endian
    else if (b.Length >= 2 && b[0] == 0xFF && b[1] == 0xFE) { text = Encoding.Unicode.GetString(b, 2, b.Length - 2); return Encoding.Unicode; }              // UTF-16, little-endian
    else if (b.Length >= 3 && b[0] == 0xEF && b[1] == 0xBB && b[2] == 0xBF) { text = Encoding.UTF8.GetString(b, 3, b.Length - 3); return Encoding.UTF8; } // UTF-8
    else if (b.Length >= 3 && b[0] == 0x2b && b[1] == 0x2f && b[2] == 0x76) { text = Encoding.UTF7.GetString(b,3,b.Length-3); return Encoding.UTF7; } // UTF-7


    //////////// If the code reaches here, no BOM/signature was found, so now
    //////////// we need to 'taste' the file to see if can manually discover
    //////////// the encoding. A high taster value is desired for UTF-8
    if (taster == 0 || taster > b.Length) taster = b.Length;    // Taster size can't be bigger than the filesize obviously.


    // Some text files are encoded in UTF8, but have no BOM/signature. Hence
    // the below manually checks for a UTF8 pattern. This code is based off
    // the top answer at: https://stackoverflow.com/questions/6555015/check-for-invalid-utf8
    // For our purposes, an unnecessarily strict (and terser/slower)
    // implementation is shown at: https://stackoverflow.com/questions/1031645/how-to-detect-utf-8-in-plain-c
    // For the below, false positives should be exceedingly rare (and would
    // be either slightly malformed UTF-8 (which would suit our purposes
    // anyway) or 8-bit extended ASCII/UTF-16/32 at a vanishingly long shot).
    int i = 0;
    bool utf8 = false;
    while (i < taster - 4)
    {
        if (b[i] <= 0x7F) { i += 1; continue; }     // If all characters are below 0x80, then it is valid UTF8, but UTF8 is not 'required' (and therefore the text is more desirable to be treated as the default codepage of the computer). Hence, there's no "utf8 = true;" code unlike the next three checks.
        if (b[i] >= 0xC2 && b[i] <= 0xDF && b[i + 1] >= 0x80 && b[i + 1] < 0xC0) { i += 2; utf8 = true; continue; }
        if (b[i] >= 0xE0 && b[i] <= 0xF0 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0) { i += 3; utf8 = true; continue; }
        if (b[i] >= 0xF0 && b[i] <= 0xF4 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0 && b[i + 3] >= 0x80 && b[i + 3] < 0xC0) { i += 4; utf8 = true; continue; }
        utf8 = false; break;
    }
    if (utf8 == true) {
        text = Encoding.UTF8.GetString(b);
        return Encoding.UTF8;
    }


    // The next check is a heuristic attempt to detect UTF-16 without a BOM.
    // We simply look for zeroes in odd or even byte places, and if a certain
    // threshold is reached, the code is 'probably' UF-16.          
    double threshold = 0.1; // proportion of chars step 2 which must be zeroed to be diagnosed as utf-16. 0.1 = 10%
    int count = 0;
    for (int n = 0; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.BigEndianUnicode.GetString(b); return Encoding.BigEndianUnicode; }
    count = 0;
    for (int n = 1; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.Unicode.GetString(b); return Encoding.Unicode; } // (little-endian)


    // Finally, a long shot - let's see if we can find "charset=xyz" or
    // "encoding=xyz" to identify the encoding:
    for (int n = 0; n < taster-9; n++)
    {
        if (
            ((b[n + 0] == 'c' || b[n + 0] == 'C') && (b[n + 1] == 'h' || b[n + 1] == 'H') && (b[n + 2] == 'a' || b[n + 2] == 'A') && (b[n + 3] == 'r' || b[n + 3] == 'R') && (b[n + 4] == 's' || b[n + 4] == 'S') && (b[n + 5] == 'e' || b[n + 5] == 'E') && (b[n + 6] == 't' || b[n + 6] == 'T') && (b[n + 7] == '=')) ||
            ((b[n + 0] == 'e' || b[n + 0] == 'E') && (b[n + 1] == 'n' || b[n + 1] == 'N') && (b[n + 2] == 'c' || b[n + 2] == 'C') && (b[n + 3] == 'o' || b[n + 3] == 'O') && (b[n + 4] == 'd' || b[n + 4] == 'D') && (b[n + 5] == 'i' || b[n + 5] == 'I') && (b[n + 6] == 'n' || b[n + 6] == 'N') && (b[n + 7] == 'g' || b[n + 7] == 'G') && (b[n + 8] == '='))
            )
        {
            if (b[n + 0] == 'c' || b[n + 0] == 'C') n += 8; else n += 9;
            if (b[n] == '"' || b[n] == '\'') n++;
            int oldn = n;
            while (n < taster && (b[n] == '_' || b[n] == '-' || (b[n] >= '0' && b[n] <= '9') || (b[n] >= 'a' && b[n] <= 'z') || (b[n] >= 'A' && b[n] <= 'Z')))
            { n++; }
            byte[] nb = new byte[n-oldn];
            Array.Copy(b, oldn, nb, 0, n-oldn);
            try {
                string internalEnc = Encoding.ASCII.GetString(nb);
                text = Encoding.GetEncoding(internalEnc).GetString(b);
                return Encoding.GetEncoding(internalEnc);
            }
            catch { break; }    // If C# doesn't recognize the name of the encoding, break.
        }
    }


    // If all else fails, the encoding is probably (though certainly not
    // definitely) the user's local codepage! One might present to the user a
    // list of alternative encodings as shown here: https://stackoverflow.com/questions/8509339/what-is-the-most-common-encoding-of-each-language
    // A full list can be found using Encoding.GetEncodings();
    text = Encoding.Default.GetString(b);
    return Encoding.Default;
}
45
ответ дан Community 17 August 2018 в 18:33
поделиться
  • 1
    Это работает для кириллических (и, возможно, всех других) файлов .eml (из заголовка charset почты) – Nime Cloud 8 December 2013 в 23:00
  • 2
    UTF-7 не может быть декодирован, что наивно, на самом деле; его полная преамбула длиннее и включает в себя два бита первого символа. Система .Net, похоже, вообще не поддерживает поддержку преамбулы UTF7. – Nyerguds 17 March 2016 в 09:43
  • 3
    Работал для меня, когда ни один из других методов, которые я проверил, не помог! Спасибо, Дэн. – Tejasvi Hegde 10 April 2016 в 16:41
  • 4
    Спасибо за ваше решение. Я использую его для определения кодировки файлов из совершенно разных источников. Однако я обнаружил, что, если я использую слишком мало значения тастера, результат может быть неправильным. (например, код возвращал Encoding.Default для файла UTF8, хотя я использовал b.Length / 10 в качестве моего дегустатора.) Поэтому мне стало интересно, что аргумент в пользу использования дегустатора, который меньше, чем b.Length? Похоже, что я могу только сделать вывод, что Encoding.Default допустимо тогда и только тогда, когда я сканировал весь файл. – Sean 30 December 2016 в 02:45
  • 5
    @Sean: Это потому, что скорость больше, чем точность, особенно для файлов размером до десятков или сотен мегабайт. По моему опыту, даже низкое значение taster может давать правильные результаты ~ 99,9% времени. Ваш опыт может отличаться. – Dan W 21 July 2017 в 17:56

Примечание: это был эксперимент, чтобы увидеть, как внутренняя кодировка UTF-8. Решение, предлагаемое vilicvane , использовать объект UTF8Encoding, инициализированный для исключения исключения при отказе декодирования, намного проще и в основном делает то же самое.


Я написал этот фрагмент кода для разграничения между UTF-8 и Windows-1252. Однако он не должен использоваться для гигантских текстовых файлов, поскольку он загружает всю вещь в память и полностью сканирует ее. Я использовал его для файлов субтитров .srt, чтобы сохранить их обратно в кодировке, в которую они были загружены.

Кодировка, данная функции как ref, должна быть 8-разрядной резервной кодировкой для использовать, если файл обнаружен как недействительный UTF-8; как правило, в системах Windows это будет Windows-1252. Это не делает ничего такого, как проверка действительных действительных диапазонов ascii, хотя и не обнаруживает UTF-16 даже по значению порядка байтов.

Теорию побитового обнаружения можно найти здесь: https://ianthehenry.com/2015/1/17/decoding-utf-8/

В принципе, диапазон бит первого байта определяет, сколько после того, как оно является частью UTF -8. Эти байты после него всегда находятся в одном и том же диапазоне бит.

/// <summary>
///     Detects whether the encoding of the data is valid UTF-8 or ascii. If detection fails, the text is decoded using the given fallback encoding.
///     Bit-wise mechanism for detecting valid UTF-8 based on https://ianthehenry.com/2015/1/17/decoding-utf-8/
///     Note that pure ascii detection should not be trusted: it might mean the file is meant to be UTF-8 or Windows-1252 but simply contains no special characters.
/// </summary>
/// <param name="docBytes">The bytes of the text document.</param>
/// <param name="encoding">The default encoding to use as fallback if the text is detected not to be pure ascii or UTF-8 compliant. This ref parameter is changed to the detected encoding, or Windows-1252 if the given encoding parameter is null and the text is not valid UTF-8.</param>
/// <returns>The contents of the read file</returns>
public static String ReadFileAndGetEncoding(Byte[] docBytes, ref Encoding encoding)
{
    if (encoding == null)
        encoding = Encoding.GetEncoding(1252);
    // BOM detection is not added in this example. Add it yourself if you feel like it. Should set the "encoding" param and return the decoded string.
    //String file = DetectByBOM(docBytes, ref encoding);
    //if (file != null)
    //    return file;
    Boolean isPureAscii = true;
    Boolean isUtf8Valid = true;
    for (Int32 i = 0; i < docBytes.Length; i++)
    {
        Int32 skip = TestUtf8(docBytes, i);
        if (skip != 0)
        {
            if (isPureAscii)
                isPureAscii = false;
            if (skip < 0)
                isUtf8Valid = false;
            else
                i += skip;
        }
        // if already detected that it's not valid utf8, there's no sense in going on.
        if (!isUtf8Valid)
            break;
    }
    if (isPureAscii)
        encoding = new ASCIIEncoding(); // pure 7-bit ascii.
    else if (isUtf8Valid)
        encoding = new UTF8Encoding(false);
    // else, retain given fallback encoding.
    return encoding.GetString(docBytes);
}

/// <summary>
/// Tests if the bytes following the given offset are UTF-8 valid, and returns
/// the extra amount of bytes to skip ahead to do the next read if it is
/// (meaning, detecting a single-byte ascii character would return 0).
/// If the text is not UTF-8 valid it returns -1.
/// </summary>
/// <param name="binFile">Byte array to test</param>
/// <param name="offset">Offset in the byte array to test.</param>
/// <returns>The amount of extra bytes to skip ahead for the next read, or -1 if the byte sequence wasn't valid UTF-8</returns>
public static Int32 TestUtf8(Byte[] binFile, Int32 offset)
{
    Byte current = binFile[offset];
    if ((current & 0x80) == 0)
        return 0; // valid 7-bit ascii. Added length is 0 bytes.
    else
    {
        Int32 len = binFile.Length;
        Int32 fullmask = 0xC0;
        Int32 testmask = 0;
        for (Int32 addedlength = 1; addedlength < 6; addedlength++)
        {
            // This code adds shifted bits to get the desired full mask.
            // If the full mask is [111]0 0000, then test mask will be [110]0 0000. Since this is
            // effectively always the previous step in the iteration I just store it each time.
            testmask = fullmask;
            fullmask += (0x40 >> addedlength);
            // Test bit mask for this level
            if ((current & fullmask) == testmask)
            {
                // End of file. Might be cut off, but either way, deemed invalid.
                if (offset + addedlength >= len)
                    return -1;
                else
                {
                    // Lookahead. Pattern of any following bytes is always 10xxxxxx
                    for (Int32 i = 1; i <= addedlength; i++)
                    {
                        // If it does not match the pattern for an added byte, it is deemed invalid.
                        if ((binFile[offset + i] & 0xC0) != 0x80)
                            return -1;
                    }
                    return addedlength;
                }
            }
        }
        // Value is greater than the start of a 6-byte utf8 sequence. Deemed invalid.
        return -1;
    }
}
1
ответ дан Nyerguds 17 August 2018 в 18:33
поделиться
  • 1
    Кроме того, после if ((current & 0xE0) == 0xC0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF8) == 0xF0) { ... } нет последнего оператора else. Я полагаю, что случай else был бы недействительным utf8: isUtf8Valid = false;. Не могли бы вы? – hal 20 January 2016 в 21:55
  • 2
    @hal Ah, true ... Я с тех пор обновил свой собственный код с более общей (и более продвинутой) системой, которая использует цикл, который достигает 3, но может быть технически изменен на цикл дальше (спецификации немного неясны в этом , возможно расширить UTF-8 до 6 добавленных байтов, я думаю, но только 3 используются в текущих реализациях), поэтому я не обновил этот код. – Nyerguds 22 January 2016 в 08:55
  • 3
    @hal Обновил его до моего нового решения. Принцип остается прежним, но бит-маски создаются и проверяются в цикле, а не все явно выписанные в коде. – Nyerguds 14 March 2016 в 14:12

Это зависит от того, где строка «появилась». Строка .NET - это Unicode (UTF-16). Единственный способ, которым вы могли бы быть разными, если бы вы, скажем, прочитали данные из базы данных в массив байтов.

Эта статья CodeProject может представлять интерес: Определить кодировку для ввода и исходящего текста

Строки Jon Skeet в C # и .NET - отличное объяснение строк .NET.

30
ответ дан Olivier Jacot-Descombes 17 August 2018 в 18:33
поделиться
  • 1
    Это произошло из не-Unicode C ++-приложения. Статья CodeProject кажется слишком сложной, но, похоже, она делает то, что я хочу сделать .. Спасибо .. – krebstar 22 June 2009 в 04:47

Я знаю, что это немного поздно, но для того, чтобы быть ясным:

Строка действительно не имеет кодировки ... в .NET строка представляет собой набор объектов char. По сути, если это строка, она уже была расшифрована.

Однако, если вы читаете содержимое файла, которое состоит из байтов, и хотите преобразовать его в строку, тогда файл кодирование должно быть использовано.

.NET включает классы кодирования и декодирования для: ASCII, UTF7, UTF8, UTF32 и др.

Большинство этих кодировок содержат определенные байтовые байты, которые могут используется для распознавания того, какой тип кодирования был использован.

Класс .NET System.IO.StreamReader способен определять кодировку, используемую в потоке, путем считывания этих байтов байтов;

Вот пример:

    /// <summary>
    /// return the detected encoding and the contents of the file.
    /// </summary>
    /// <param name="fileName"></param>
    /// <param name="contents"></param>
    /// <returns></returns>
    public static Encoding DetectEncoding(String fileName, out String contents)
    {
        // open the file with the stream-reader:
        using (StreamReader reader = new StreamReader(fileName, true))
        {
            // read the contents of the file into a string
            contents = reader.ReadToEnd();

            // return the encoding.
            return reader.CurrentEncoding;
        }
    }
14
ответ дан Simon Bridge 17 August 2018 в 18:33
поделиться
  • 1
    Это не будет работать для обнаружения UTF 16 без спецификации. Также он не будет возвращаться к локальной кодовой странице локального пользователя, если не сможет обнаружить кодировку любого юникода. Вы можете исправить последнее, добавив Encoding.Default в качестве параметра StreamReader, но тогда код не будет обнаруживать UTF8 без спецификации. – Dan W 12 October 2012 в 16:24
  • 2
    @DanW: Является ли UTF-16 без спецификации на самом деле когда-либо сделанным? Я никогда не буду использовать это; это неизбежно будет катастрофой, чтобы открыть практически что угодно. – Nyerguds 10 February 2016 в 18:22

Еще один вариант, очень скоро приходящий, извините:

http://www.architectshack.com/TextFileEncodingDetector.ashx

Этот небольшой C # -например, класс использует BOMS, если он присутствует, пытается автоматически обнаружить возможные кодировки unicode в противном случае и возвращается, если ни одно из кодировок Unicode не возможно или вероятно.

Похоже, что UTF8Checker, упомянутый выше, делает что-то подобное, но Я думаю, что это немного шире по объему - вместо UTF8 он также проверяет другие возможные кодировки Unicode (UTF-16 LE или BE), которые могут отсутствовать спецификацией.

Надеюсь, это поможет кому-то!

11
ответ дан Tao 17 August 2018 в 18:33
поделиться
  • 1
    Довольно красивый код, он решил мою проблему обнаружения кодирования :) – CARLOS LOTH 21 April 2012 в 10:45

Мое решение состоит в том, чтобы использовать встроенные компоненты с некоторыми резервными ошибками.

Я выбрал стратегию из ответа на другой подобный вопрос о stackoverflow, но я не могу его найти сейчас.

Он сначала проверяет спецификацию, используя встроенную логику в StreamReader, если есть спецификация, кодировка будет чем-то иным, чем Encoding.Default, и мы должны доверять этому результату.

Если нет, он проверяет является ли последовательность байтов действительной последовательностью UTF-8. если это так, он будет считать UTF-8 в качестве кодировки, а если нет, то в результате будет использоваться кодировка ASCII по умолчанию.

static Encoding getEncoding(string path) {
    var stream = new FileStream(path, FileMode.Open);
    var reader = new StreamReader(stream, Encoding.Default, true);
    reader.Read();

    if (reader.CurrentEncoding != Encoding.Default) {
        reader.Close();
        return reader.CurrentEncoding;
    }

    stream.Position = 0;

    reader = new StreamReader(stream, new UTF8Encoding(false, true));
    try {
        reader.ReadToEnd();
        reader.Close();
        return Encoding.UTF8;
    }
    catch (Exception) {
        reader.Close();
        return Encoding.Default;
    }
}
5
ответ дан vilicvane 17 August 2018 в 18:33
поделиться
Другие вопросы по тегам:

Похожие вопросы: