Я искал оптимизированный (, т. е. быстрый )алгоритм, который преобразует 24-битное -битовое изображение RGB в 16-битное -битное (RGB565 )растровое изображение с использованием дизеринга. Я ищу что-то в C/C++, где я могу контролировать, как применяется сглаживание. GDI+, кажется, предоставляет некоторые методы, но я не могу сказать, колеблются они или нет. И если они колеблются, какой механизм они используют (Флойда -Стейнберга?)
У кого-нибудь есть хороший пример преобразования глубины растрового цвета -с дизерингом?