Что такое хороший оптимизированный алгоритм C/C++ для преобразования 24-битного -битового изображения в 16-битное -бит с дизерингом?

Я искал оптимизированный (, т. е. быстрый )алгоритм, который преобразует 24-битное -битовое изображение RGB в 16-битное -битное (RGB565 )растровое изображение с использованием дизеринга. Я ищу что-то в C/C++, где я могу контролировать, как применяется сглаживание. GDI+, кажется, предоставляет некоторые методы, но я не могу сказать, колеблются они или нет. И если они колеблются, какой механизм они используют (Флойда -Стейнберга?)

У кого-нибудь есть хороший пример преобразования глубины растрового цвета -с дизерингом?

7
задан JacobJ 24 July 2012 в 22:03
поделиться